DE69324743T2 - Vorrichtung und Verfahren zur Bildsignalkodierung - Google Patents

Vorrichtung und Verfahren zur Bildsignalkodierung

Info

Publication number
DE69324743T2
DE69324743T2 DE69324743T DE69324743T DE69324743T2 DE 69324743 T2 DE69324743 T2 DE 69324743T2 DE 69324743 T DE69324743 T DE 69324743T DE 69324743 T DE69324743 T DE 69324743T DE 69324743 T2 DE69324743 T2 DE 69324743T2
Authority
DE
Germany
Prior art keywords
block
coding
information
unit
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69324743T
Other languages
English (en)
Other versions
DE69324743D1 (de
Inventor
Koh Kamizawa
Yutaka Koshi
Setsu Kunitake
Kazuhiro Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of DE69324743D1 publication Critical patent/DE69324743D1/de
Application granted granted Critical
Publication of DE69324743T2 publication Critical patent/DE69324743T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • H04N7/54Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

    Hintergrund der Erfindung 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Vorrichtung zum Codieren eines Bildsignales.
  • 2. Beschreibung des Standes der Technik
  • Bei einer Vorrichtung zum Empfangen eines Manuskripts als ein digitales Bildsignal und zum Anwenden eines Editierprozesses oder dergleichen auf das digitale Manuskript-Bildsignal ist ein Seitenspeicher erforderlich, der zum vorübergehenden Speichern der Daten des Bildes verwendet wird.
  • In den letzten Jahren nahm die Kapazität des Seitenspeichers immer mehr zu, da auch die Auflösung des zu verarbeitenden Bildes und die Anzahl der Farben des Bildes zunahmen. Dies führt zu den folgenden beiden Problemen.
  • Das eine Problem besteht darin, daß sich der Preis des Seitenspeichers erhöht, während das andere Problem darin besteht, daß sich die zum Auslesen eines Bildes aus dem Seitenspeicher benötigte Zeit sowie die zum Einschreiben des Bildes in den Seitenspeicher benötigte Zeit verlängert.
  • Um diese Probleme zu lösen, wurde eine Bildcodiertechnik vorgeschlagen, welche auf eine Reduzierung des Seitenspeichers abzielt, wie es in der am 5.3.1993 veröffentlichten, ungeprüften japanischen Patentveröffentlichung No. Hei. 5-56282 offenbart ist.
  • Das in der oben erwähnten ungeprüften japanischen Patentveröffentlichung No. Hei. 5-56282 offenbarte Verfahren zielt im wesentlichen darauf ab, die folgenden drei Erfordernisse zu erfüllen.
  • Eines der Erfordernisse sieht vor, daß ein Bild mit einer einheitlichen Kompressibilität unabhängig von dem Bild codiert werden kann.
  • Ein zweites Erfordernis besteht darin, daß ein in eine vorgegebene Anzahl von Einheiten unterteiltes Bild mit einer vorgegebenen Menge von Codes codiert werden kann.
  • Ein drittes Erfordernis besteht darin, daß die Codier-/Decodierverarbeitung mit hoher und konstanter Geschwindigkeit ausgeführt werden kann.
  • Nachfolgend wird eine Bildcodiervorrichtung beschrieben, die in der oben erwähnten ungeprüften japanischen Patentveröffentlichung No. Hei. 5-56282 offenbart ist.
  • Fig. 12 zeigt ein Blockschaltbild der Struktur der Bildcodiereinrichtung. In Fig. 12 bezeichnet das Bezugszeichen 1 ein Eingangsbild, welches durch einen in Fig. 13 gezeigten Rasterscanvorgang eingegeben wird, 3 bezeichnet einen Eingangsblock, der aus mxn Pixeln oder Bildpunkten besteht, die mit Hilfe eines Blockungsabschnitts 2 wie in Fig. 13 gezeigt umgewandelt oder transformiert werden, 5 bezeichnet eine Mittelwertinformation, die von einem Mittelwertabtrenner 4 berechnet wird, 6 bezeichnet einen Mittelwert-Abtrennungsblock, der durch Subtrahieren eines Mittelwerts von dem Eingangsblock 3 durch den Mittelwertabtrenner 4 erhalten wird, 8 bezeichnet einen Näherungsparameter oder eine Modusinformation, der oder die von einem Modusunterscheider 7 erhalten wird, 10 bezeichnet einen Näherungsblock, der erhalten wird, wenn ein adaptiver Näherungscodierer 9 eine Auflösungsnäherung und eine Gradationsnäherung auf den Mittelwert-Abtrennungsblock 6 anwendet, und 12 bezeichnet Codierdaten, die von einem. Multiplexer 11 gemultiplext werden. Der Blockungsabschnitt 2 wird verwendet, um die Abtastreihenfolge des Eingangsbilds 1 wie in Fig. 13 gezeigt von einem Rasterscanformat in ein Blockformat umzuwandeln, der Mittelwertabtrenner 4 wird verwendet, um den Mittelwert des Eingangsblocks 3 zu berechnen und den Mittelwert von dem Eingangsblock 3 zu subtrahieren, der Modusunterscheider 7 wird verwendet, um die statistischen und räumlichen Eigenwerte des Mittelwert-Abtrennungsblocks 6 zu analysieren und durch eine Näherungscodierung in Übereinstimmung mit den Ergebnissen der Analyse einen Näherungsparameter zu erhalten, der adaptive Näherungscodierer 9 führt eine Auflösungsnäherung und eine Gradationsnäherung aus, und der Multiplexer 11 wird verwendet, um die Mittelwertinformation 5 und die Modusinformation 8 sowie den Näherungsblock 10 zu multiplexen.
  • In Fig. 14 ist nun ein Blockschaltbild der Struktur des in Fig. 12 gezeigten Modusunterscheiders 7 dargestellt. In Fig. 14 bezeichnet das Bezugszeichen 16 einen Vektorindex, welcher einen von einer Musteranpassungsanordnung 15 ausgewählten repräsentativen Vektor anzeigt, 18 bezeichnet einen Parameterkandidatenwert, d. h. eine Signalforminformation, die sich auf eine von, einer Signalform-Abbildungstabelle 17 auszugebende Auflösungsnäherung bezieht, 23 bezeichnet einen Varianzwert, der von einem Varianzberechner 22 ausgegeben wird, 25 bezeichnet eine Histogramminformation, die von einem Histogrammzähler 24 ausgegeben wird, 27 bezeichnet einen Parameterkandidatenwert, d. h. eine Gewinninformation, welche sich auf die Gradationsnäherung bezieht, und 14 bezeichnet einen Signalformanalysator, der zum Analysieren der Signalforminformation der statistischen und räumlichen Eigenwerte wie in Fig. 15 gezeigt eingesetzt wird. Die Musteranpassungsanordnung 15 wird verwendet, um eine Musteranpassung zwischen der Menge der repräsentativen Vektoren, die repräsentative Signalforminformationen aufweisen, und dem aus mxn Pixeln bestehenden Mittelwert-Abtrennungsblock 6 durchzuführen, um auf diese Weise einen repräsentativen Vektor mit der nächstenliegenden Signalforminformation auszuwählen, die Signalform-Abbildungstabelle 17 erhält einen Parameterkandidatenwert infolge der Auflösungsnäherung des Vektorindex 16, der Gewinnanalysator 20 wird verwendet, um die in dem aus mxn Pixeln bestehenden und in Fig. 13 gezeigten Block enthaltene Gewinninformation in den statistischen und räumlichen Eigenwerten zu analysieren, der Varianzberechner 22 wird verwendet, um den Varianzwert des Werts der mxn Pixel des Mittelwert-Abtrennungsblocks 6 zu berechnen, der Histogrammzähler 24 zählt die Frequenzverteilung des Werts der mxn Pixel des Mittelwert-Abtrennungsblocks 6, eine Gewinnabbildungstabelle 26 erhält in Folge der auf den Varianzwert 22 und die Histogramminformation 25 angewendete Gradationsnäherung einen Parameterkandidatenwert, und eine Modusbeurteilungsanordnung 21 erhält ausgehend von der Signalforminformation 18 und der Gewinninformation 27 die Modusinformation 8, d. h. einen Näherungsparameter.
  • Es wird nunmehr auf Fig. 16 Bezug genommen, wobei ein Blockschaltbild der Struktur des in Fig. 12 gezeigten adaptiven Näherungscodierers 9 dargestellt ist. In Fig. 16 bezeichnet das Bezugszeichen 33 einen Unterabtastungsblock, der von einem adaptiven Unterabtaster 32 einer Unterabtastung unterzogen wird, und 30 bezeichnet einen Unterabtastungsmustergenerator, der in Übereinstimmung mit dem durch die Auflösungsnäherung der Modusinformation 8 erhaltenen Parameter ein Unterabtastungsmuster 31 zum Steuern eines auf die Auflösungsnäherung anzuwendenden Unterabtastungsvorgangs erhält. Der adaptive Unterabtaster 32 unterzieht die mxn Pixel des Mittelwert-Abtrennungsblocks 6 in Übereinstimmung mit dem von dem Unterabtastungsmustergenerator 30 auszugebenden Unterabtastungsmuster 31 einer Unterabtastung, und ein adaptiver Quantisierer 34 führt einen Gradationsnäherungsvorgang aus, d. h. quantisiert die Gradationsnäherung in Übereinstimmung mit dem Parameter der Gradationsnäherung der Modusinformation 8.
  • Nachfolgend wird unter Bezugnahme auf die Fig. 12, 14 und 16 der Betrieb der oben erwähnten Bildcodiervorrichtung beschrieben. Wie in Fig. 13 gezeigt ist, wird das durch den Rasterscanvorgang eingegebene Eingangsbild 1 durch eine Abtastungsumsetzung des Blockungsabschnitts 2 in den Eingangsblock 3, der die mxn Pixel umfaßt, umgesetzt. Anschließend werden sämtliche Codiervorgänge unabhängig voneinander in Form von Blöcken durchgeführt, wobei der Eingangsblock 3 als eine Einheit dient.
  • Der in Fig. 12 gezeigte Mittelwertabtrenner 4 berechnet den Mittelwert u des Werts Sij (i = 1, 2, ---, m, j = 1, 2, ---, n) der den Eingangsblock 3 bildenden mxn Pixel, d. h. die Mittelwertinformation 5, und subtrahiert anschließend den Mittelwert u von den entsprechenden Pixelwerten der den Eingangsblock 3 bildenden mxn Pixeln und berechnet anhand der Werte Xij (i = 1, 2, ---, m, j = 1, 2, ---, n) der mxn Pixel, die dem Mittelwert-Abtrennungsvorgang unterzogen worden sind, den Mittelwert- Abtrennungsblock 6. Dabei können Sij, u und Xij durch die folgende mathematische Gleichung ausgedrückt werden:
  • u = ( Sij)/(mxn)
  • Xij = Sij - u
  • Der in Fig. 12 gezeigte Modusunterscheider 7 analysiert die statistischen und räumlichen Eigenwerten des Mittelwert-Abtrennungsblocks 6 und gibt in Übereinstimmung mit den Analyseergebnissen die Modusinformation 8, d. h. den Näherungsparameter aus. Wie in Fig. 14 gezeigt ist, analysiert der Signalformanalysator 14, der einen Bestandteil des Modusunterscheiders 7 darstellt, die Signalforminformation, um den Kandidatenwert des Auflösungs-Näherungsparameters zu erhalten. Auf ähnliche Weise analysiert der Gewinnanalysator 20 die Gewinninformation, um auf diese Weise den Kandidatenwert des Gradationsnäherungsparameters zu erhalten. Auf ähnliche Weise erhält die Modusbeurteilungsanordnung 21 den Näherungsparameter, d. h. die Modusinformation 8, anhand des Kandidatenwerts des Auflösungs-Näherungsparameters und des Kandidatenwerts des Gradationsnäherungsparameters.
  • Der in Fig. 14 gezeigte Signalformanalysator 14 analysiert die Signalforminformation, welche die zweidimensionale Ausrichtung und Komplexität der Gradationsveränderungen des Mittelwert-Abtrennungsblocks 6 darstellt, und erhält anhand der Ergebnisse dieser Analyse einen Kandidatenwert des Auflösungsnäherungsparameters für die Näherung der Auflösung des Mittelwert- Abtrennungsblocks 6.
  • Die in Fig. 14 gezeigte Musteranpassungsanordnung 15 unterzieht, wie in Fig. 15 gezeigt ist, beispielsweise eine Menge von repräsentativen Vektoren, welche zuvor bereitgestellte repräsentative Signalforminformationen enthält, einer Musteranpassung in Bezug auf einen (nachfolgend als Analyseblock bezeichneten) Analysezielblock, d. h. den Mittelwert-Abtrennungsblock 6, um auf diese Weise eine Signalforminformationanalyse durchzuführen. Somit kann mit Hilfe der Analyse der Signalforminformation die Richtung und Komplexität der Gradationsschwankungen des Analyseblocks erhalten werden, während der Vektorindex 16 durch den Index des repräsentativen Vektors erhalten werden kann. Wird ein aus mxn Pixeln bestehender Analyseblock durch x = {Xj i = 1, 2, ---, mxn} und eine aus k repräsentativen Vektoren bestehende Menge von repräsentativen Vektoren durch Y = {yi i = 1, 2, ---, k} ausgedrückt, kann eine Musteranpassung durch die folgende Gleichung definiert werden.
  • Für jedes i gilt d(x,yp) = min{d(x,yi)} (i = 1, 2, ---, k), wobei d(x, yi) ein Verzerrungsmaß darstellt und durch eine Quadratverzerrung oder dergleichen definiert werden kann. p entspricht dem Index eines repräsentativen Vektors, d. h. dem Vektorindex 16, und dadurch wird angezeigt, daß ein durch p bezeichneter repräsentativer Vektor xp, als derjenige repräsentative Vektor ausgewählt worden ist, der die dem Analyseblock nächstkommende Signalforminformation enthält.
  • Die in Fig. 14 gezeigte Signalform-Abbildungstabelle 17 erhält anhand des Vektorindex 16 einen Auflösungs-Näherungsparameter-Kandidatenwert, d. h. die Signalforminformation 18. Der Auflösungsnäherungsparameter-Kandidatenwert besteht aus der die zweidimensionale Richtung der Gradationsschwankungen darstellenden Richtung v(p) des Analyseblocks sowie einer die Komplexität der Gradationsschwankungen darstellenden Unterabtastrate r(p).
  • Der in Fig. 14 gezeigte Gewinnanalysator 20 analysiert die Gewinninformation, welche die Frequenzverteilung der Amplituden und Pixelwerte des Mittelwert- Abtrennungsblocks darstellt, und erhält anhand der Ergebnisse dieser Analyse einen Gradationsnäherungsparameter-Kandidatenwert für die Näherung der Gradation des Mittelwert-Abtrennungsblocks 6. Die Analyse der Gewinninformation kann dadurch ausgeführt werden, daß der Varianzwert σ² der Werte der den Mittelwert- Abtrennungsblocks bildenden mxn Pixeln sowie deren Histogramm gezählt wird.
  • Der in Fig. 14 gezeigte Varianzberechner 22 berechnet den Varianzwert σ² der Werte der den Mittelwert-Abtrennungsblock 6 bildenden mxn Pixeln, d. h. er berechnet den Varianzwert 23. Der Varianzwert der mxn Pixel, von denen der Mittelwert abgetrennt worden ist, kann durch die folgende Gleichung definiert werden.
  • σ² = ( X²ij)/(mxn)
  • Oder der Varianzwert σ kann wie folgt dargestellt werden.
  • σ = ( Xij )/(mxn)
  • Der in Fig. 14 gezeigte Histogrammzähler 24 unterzieht, wie in Fig. 17 gezeigt ist, den Mittelwert-Abtrennungsblock 6 mit Hilfe des Varianzwertes σ einer Schwellenwertverarbeitung, um auf diese Weise die Frequenz zu zählen. Das heißt, als Schwellenwerte werden ± σ/a gewählt, und die Frequenz wird in drei Bereichen, nämlich dem Bereich kleiner als -σ/a, dem Bereich zwischen -σ/a und σ/a und dem Bereich größer als σ/a, gezählt. Dabei ist a eine reelle Zahl größer oder gleich 1, und im vorliegenden Ausführungsbeispiel ist beispielsweise a = 3. Die in den drei Bereichen gezählten Frequenzwerte werden mit H&submin;&sub1;, H&sub0; bzw. H&sub1; bezeichnet. Wie in Fig. 17 gezeigt ist, wird anhand der Werte für H&submin;&sub1;, H&sub0; und H&sub1; beurteilt, ob das Histogramm einer einmodigen Verteilung oder einer zweimodigen Verteilung entspricht, und das Ergebnis dieser Beurteilung wird in Form der Histogramminformation 25 erhalten. Gilt beispielsweise H&submin;&sub1; ≤ H&sub0; und H&sub0; ≥ H&sub1;, wird das Histogramm als einmodige Verteilung beurteilt, während in den anderen Fällen das Histogramm als zweimodige Verteilung beurteilt wird.
  • Die in Fig. 14 gezeigte Gewinnabbildungstabelle 26 erhält anhand des Varianzwerts 23 und der Histogramminformation 26 einen Gradationsnäherungsparameter- Kandidatenwert, d. h. die Gewinninformation 27. Der Gradationsnäherungsparameter- Kandidatenwert besteht aus einer Gradationsnäherung, d. h. der Quantisierungskenngröße c und der Pegelanzahl 1.
  • Die in Fig. 14 gezeigte Modusbeurteilungsanordnung 21 ermittelt anhand des Auflösungsnäherungsparameter-Kandidatenwerts und des Gradationsnäherungsparameter-Kandidatenwerts einen Näherungsparameter, d. h. die Modusinformation 8. Bei der Durchführung einer Codierung mit fester Länge, um für jeden der mxn Pixel die Codemenge auf eine vorgegebene Menge einzustellen, indem die Unterabtastrate r des Auflösungsnäherungsparameter-Kandidatenwerts zusammen mit der Codemenge und der Pegelanzahl 1 des Gradationsnäherungsparameter-Kandidatenwerts verarbeitet wird, wird die Datenmenge des Näherungsblocks 10 auf eine bestimmte Menge eingestellt. Im vorliegenden Fall ist die Datenmenge des Näherungsblocks 10 proportional zu p · log&sub2; 1, so daß der Wert p · log&sub2; 1 auf einen vorgegebenen Wert eingestellt werden kann. Die auf diese Weise gesteuerten Auflösungsnäherungsparameter und Gradationsnäherungsparameter werden miteinander kombiniert und anschließend als Modusinformation 8 ausgegeben. Werden der jeweilige Auflösungsnäherungsparameter-Kandidatenwert und Gradationsnäherungsparameter- Kandidatenwert unverändert als Modusinformation 8 verwendet, kann zudem die Qualität des wiedergegebenen Bildes auf einem vorgegebenen Niveau gehalten werden.
  • Der in Fig. 12 gezeigte adaptive Näherungscodierer 9 führt in Übereinstimmung mit der Modusinformation 8 die Näherung der Auflösung sowie die Näherung der Gradation durch.
  • Der in Fig. 16 gezeigte Unterabtastungsmustergenerator 30 ermittelt in Übereinstimmung mit dem Gradationsnäherungsparameter der Modusinformation 8 das Muster 31 für die Unterabtastung des Mittelwert-Abtrennungsblocks 6, d. h. sowohl die Analyseblockrichtung v, welche die zweidimensionale Richtung der Gradationsschwankungen darstellt, als auch die Unterabtastungsrate r, welche die Komplexität der Gradationsschwankungen darstellt. Das Muster 31 wird durch Kombination der Richtung v mit der Rate r festgelegt. Das Muster 31 enthält beispielsweise ein Muster, bei dem ein aus mxn Pixeln bestehender Block lediglich in seiner Längsrichtung auf 1/2 ausgedünnt ist, oder ein Muster, bei dem der Block lediglich in seiner Querrichtung auf 1/2 ausgedünnt ist, oder ein Muster, bei dem der Block sowohl in seiner Längs- als auch Querrichtung auf 1/2 ausgedünnt ist usw.
  • Der in Fig. 16 gezeigte adaptive Unterabtaster 32 unterzieht den Mittelwert- Abtrennungsblock 6 in Übereinstimmung mit dem Unterabtastungsmuster 31 einer Unterabtastung.
  • Der in Fig. 16 gezeigte adaptive Quantisierer 34 quantisiert den Unterabtastungsblock 33 in Übereinstimmung mit dem Gradationsnäherungsparameter der Modusinformation 8, d. h. der Quantisierungskenngröße c und der Anzahl 1 der Quantisierungsschritte. Wie in Fig. 17 gezeigt ist, wird ein ideal für eine einmodige Verteilung geeigneter Quantisierer ausgewählt, falls die Quantisierungskenngröße c einer einmodigen Verteilung entspricht, und es wird ein ideal für eine zweimodige Verteilung geeigneter Quantisierer ausgewählt, falls die Quantisierungskenngröße c eine zweimodige Verteilung anzeigt. Dabei kann als Quantisierer beispielsweise ein nicht-linearer Quantisierer, wie z. B. ein Optimalquantisierer, verwendet werden, der für jede Verteilung eine Quantisierung angesichts des Maximalwerts der Verteilung durchführt. Die Quantisierer sollten in Übereinstimmung mit den jeweiligen Kombinationen der Quantisierungskenngröße c und der Anzahl 1 der Quantisierungsschritte vorgesehen werden.
  • Der in Fig. 12 gezeigte Multiplexer 11 multiplext wie in Fig. 18 gezeigt die Modusinformation 8, die Mittelwertinformation 5 und den Näherungsblock 10, um auf diese Weise die Codierdaten 12 zu erhalten.
  • Als ein höchsteffektives Codierverfahren für Kommunikations- und Speicherzwecke ist andererseits ein Codierverfahren bekannt, welches auf Grundlage einer (nachfolgend als DCT abgekürzten) diskreten Cosinustransformation, welche eine orthogonale Transformationsart darstellt, durchgeführt wird (Hideo Hashimoto: Introduction to Image Compression "Image Encoding Algorithm II -Transformation Encoding-", The Journal of the Institute of Television Engineers of Japan, Vol. 43, No. 10, 1989, Seiten 1145-1152.)
  • Nachfolgend wird die orthogonale Transformation beschrieben.
  • Für ein Bildsignal wird eine zweidimensionale orthogonale Transformation eingesetzt, welche eine Kombination zwischen horizontalen und vertikalen Richtungen verwendet. Es wird ein Pixelblock konstruiert, der M Pixel in horizontaler bzw. N Pixel in vertikaler Richtung aufweist, und es werden unabhängig voneinander eindimensionale orthogonale Tranformationen in horizontaler und vertikaler Richtung ausgeführt. Diese Verarbeitungsvorgänge können durch die folgende Gleichung (1) ausgedrückt werden:
  • Y = ANXATM (1)
  • Dabei bezeichnet X einen Pixelblock bestehend aus N Zeilen und M Spalten, Y bezeichnet einen Transformationskoeffizienten, und AN bzw. AM stellt eine orthogonale Transformationsmatrix der Ordnung N bzw. M dar.
  • Es sind verschiedene Arten von orthogonalen Transformationsverfahren verfügbar, wobei in Anbetracht der Codiereffektivität im allgemeinen das DCT-Verfahren verwendet wird. Eine zweidimensionale DCT der Ordnung n kann beispielsweise durch die folgende Gleichung (2) dargestellt werden, während deren inverse Transformation durch die folgende Gleichung (3) ausgedrückt werden kann.
  • Dabei bezeichnet X(j, k) die entsprechenden Elemente des Pixelblocks 102, und j, k bezeichnen die jeweilige Position der Elemente. Y(u, v) repräsentiert die entsprechenden Elemente der Transformationskoeffizienten, und u, v drücken die Positionen der Elemente aus.
  • Für ein als natürliches Bild bezeichnetes Bildsignal, wie z. B. bei einer Person, einem Hintergrund oder dergleichen, ist bekannt, daß gegenseitig benachbarte Pixel dazu neigen, ähnliche Pixelwerte anzunehmen, und eine hohe Korrelativität zu besitzen. Ein derartiges Signal hoher Korrelativität bedeutet, daß die elektrische Leistung eines Signals auf der Frequenzachse betrachtet kollektiv auf eine bestimmte Frequenzkomponente verteilt wird. Durch Codieren lediglich des Koeffizienten derjenigen Komponente, auf die die Signalleistung kollektiv aufgeteilt wird, kann der Gesamtinformationsumfang reduziert werden. Bei Anwendung des DCT-Verfahrens wird bei einem natürlichen Bild der größte Anteil der Signalleistung auf einen Niederfrequenzbereich konzentriert.
  • Bei dem DCT-Verfahren sind jedoch die Probleme bekannt, daß sich die Codiereffektivität verschlechtert, falls in dem Bild eine Kante enthalten ist, und daß in der Nähe der Kante eines decodierten Bildes eine bestimmte Bildqualitätsverschlechterung auftritt. Dies deshalb, da bei einem eine Kante aufweisenden Pixelblock die Signalleistung nicht auf einem bestimmten Koeffizienten konzentriert, sondern über einen breiten Koeffizientenbereich verteilt wird. In der ungeprüften japanischen Patentveröffentlichung No. Hei. 5-63989 ist ein Verfahren zum Verringern der Bildqualitätsverschlechterung offenbart, wenn ein derartiges eine Kante aufweisendes Bild gemäß dem DCT-Verfahren codiert wird.
  • Bei dem in der ungeprüften japanischen Patentveröffentlichung No. Hei. 5-63989 offenbarten Verfahren wird zunächst durch Verwendung einer Musterübereinstimmungs- und Varianzberechnung die Signalform des Pixelblocks analysiert. Anschließend werden anhand der Ergebnisse der Analyse Maskeninformationen ausgewählt, welche die Signifikanz/Insignifikanz der DCT- Koeffizienten festlegen. Ein Koeffizient der DCT-Koeffizienten, der für eine Position vorgesehen ist, bei der die Maskeninformation Insignifikanz anzeigt, wird zwangsweise auf 0 gesetzt. Nach der obigen Auswahl der Koeffizienten wird eine Entropiecodierung durchgeführt.
  • Das in der oben erwähnten ungeprüften japanischen Patentveröffentlichung No. Hei. 5-56282 offenbarte Verfahren weist jedoch die beiden folgenden Probleme auf:
  • Zunächst treten in einem Bild lokal vorhandene Schwankungen, beispielsweise hinsichtlich der Zeichenbereiche, der Leerraumbereiche und dergleichen auf, die statistische Eigenschaften besitzen. Bei dem in der obigen ungeprüften japanischen Patentveröffentlichung No. Hei. 5-56282 offenbarten Verfahren wird jedoch das in eine vorgegebene Anzahl von Unterabschnittseinheiten aufgeteilte Bild mit einer konstanten Codemenge codiert, um eine zweidimensionale Positionbeziehung zwischen den Bild- und den Codierdaten beizubehalten. Aus diesem Grunde ist in den codierten Daten Redundanz enthalten. Zweitens ist das Verfahren nicht kompatibel zu anderen Codierverfahren, welche extern von der Codiervorrichtung verwendet werden, da das Verfahren hauptsächlich für die interne Verwendung in der Codiervorrichtung entwickelt worden ist.
  • Wird das in der obigen ungeprüften japanischen Patentveröffentlichung No. Hei. 5- 56282 offenbarte Verfahren für Kommunikations- und Speicherzwecke verwendet, wird daher erwartet, daß die in Übereinstimmung mit dem Verfahren codierten Codierdaten einmalig codiert und anschließend die decodierten Daten wieder mit hoher Effektivität codiert werden.
  • Aufgrund der Tatsache, daß das in der obigen ungeprüften japanischen Patentveröffentlichung No. Hei. 5-56282 offenbarte Verfahren einen auf der Blocknäherungscodierung basierenden Algorithmus verwendet, wird jedoch eine in dem decodierten Bild enthaltene Kante durch eine geringe Anzahl von repräsentativen Gradationen angenähert, was als Ergebnis zur Folge hat, daß die Kante verstärkt wird. Aus diesem Grunde ist es im Hinblick auf die Effektivität und Bildqualität nicht empfehlenswert, das decodierte Bild nochmals direkt gemäß dem DCT-Verfahren zu codieren.
  • Die EP-A-0 434 429 offenbart eine Bildverarbeitungsvorrichtung, welche zur Faxkommunikation in einer Bilddatenbasis oder dergleichen eingesetzt wird. Eines der wesentlichen Probleme, mit denen ein Bildcodiersystem bei der Anwendung von orthogonalen Transformationen, wie beispielsweise der DCT, konfrontiert wird, ist die Tatsache, daß eine DCT-Transformation gut für natürliche Bilder geeignet ist, im Falle von Zeichen jedoch eine Qualitätsverschlechterung auftritt. Der Grund hierfür sind die aufgrund der Kanten eines Zeichens auftretenden Hochfrequenzkomponenten. In Anbetracht dieser Tatsache klassifiziert zunächst die Vorrichtung gemäß der EP-A-0434429 einen N · M Pixel aufweisenden Block abhängig davon, ob der Block einen natürlichen Bildabschnitt oder einen Zeichenbildabschnitt aufweist. Enthält der Block eine Kante (Zeichenabschnitt), wird der Block zunächst durch eine BTC (Block Truncation Coding) codiert. Anschließend wird die Differenz zwischen dem ursprünglichen Block und dem rekonstruierten (decodierten) BTC-Block berechnet. In dem auf diese Weise konstruierten Differenzblock ist die Kante nicht mehr enthalten. Mit anderen Worten, die Hochfrequenzkomponenten wurden entfernt. Der Differenzblock wird nunmehr einer DCT-Transformation unterzogen. Die übertragenen codierten Daten enthalten daher die Musterinformation und die Mittelwertinformation (diese beiden Informationen bilden den BCT-Codierteil, d. h. die codierte Kanteninformation) sowie den DCT-codierten Teil.
  • Insbesondere verwendet das Verfahren gemäß der EP-A-0434429 zwei Codierverfahren parallel, d. h. der Block wird mathematisch in zwei Blöcke gleicher Größe aufgeteilt, wobei der eine die Hochfrequenzkomponenten des ursprünglichen Pixelblocks und der andere den Niederfrequenzanteil des ursprünglichen Blocks enthält. Der Hochfrequenzblock wird im Pixelbereich mit Hilfe eines BTC-Verfahrens codiert, während der Niederfrequenzblock im Frequenzbereich mit Hilfe eines DCT-Verfahrens codiert wird. Diese beiden codierten Teile werden gemultiplext und übertragen, wobei jedoch im Prinzip diese beiden codierten Blöcke vollständig unabhängig voneinander sind.
  • Demzufolge benötigt die Decodiereinheit zum Decodieren der übertragenen Daten eine Vielzahl von Informationen, um den Decodierprozess ausführen und einen rekonstruierten Pixelblock erzeugen zu können. Insbesondere benötigt die Decodiereinheit für die inverse DCT-Decodierung die Musterinformation, die Mittelwertinformation und die Quantisierungsinformation. Anschließend müssen die beiden daraus resultierenden decodierten Blöcke addiert werden, um den rekonstruierten Block zu erhalten. Daher ist die Decodiereinheit relativ kompliziert aufgebaut und erfordert einen großen Berechnungsaufwand.
  • Zusammenfassung der Erfindung
  • Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, eine Bildsignal- Codiervorrichtung und ein Verfahren zum Codieren eines Bildsignales bereitzustellen, wobei Codierdaten erzeugt werden, die mit einer verbesserten Effektivität decodiert werden können.
  • Diese Aufgabe wird durch die Gegenstände des Anspruches 1 und des Anspruches 7 gelöst. Bevorzugte Ausführungsbeispiele sind Gegenstand der abhängigen Ansprüche.
  • Erfindungsgemäß wird eine Bildsignal-Codiervorrichtung bereitgestellt, die umfaßt: Aufteilungsmittel zum Aufteilen eines Bildsignals in eine Vielzahl von rechteckigen Pixelblöcken, Mittelwert-Abtrennungsmittel zum Berechnen eines Pixel-Mittelwerts jedes Pixelblocks und zum Subtrahieren des Mittelwerts von jedem einzelnen Pixelwert des Pixelblocks, um einen Mittelwert-Abtrennungspixelblock zu bilden, Modusunterscheidungsmittel zum Analysieren von Eigenschaften von Auflösungs- und Gradationsveränderungen des Mittelwert-Abtrennungspixelblocks und zum Ausgeben einer Modusinformation, die in Übereinstimmung mit den Eigenschaften der Pixelverteilung in dem Mittelwert-Abtrennungspixelblock definiert ist, erste Codiermittel zum Codieren des Mittelwert-Abtrennungspixelblocks mit Hilfe eines Codiervorgangs in dem durch die Modusinformation definierten Pixelbereich unter Verwendung eines adaptiven Näherungscodierers, wobei der Mittelwert- Abtrennungspixelblock durch einen Unterabtastungsvorgang unter Verwendung eines an die Modusinformation angepaßten Unterabtastungsmusters mit einer nachfolgenden adaptiven Quantisierung unter Verwendung eines an die Modusinformation angepaßten adaptiven Quantisierers und durch Ausgeben eines Näherungsblocks angenähert wird, wobei die Vorrichtung weiterhin umfaßt: Lokaldecodiermittel zum lokalen Decodieren des Näherungsblocks mit Hilfe eines Decodiervorgangs unter Verwendung der Modusinformation und der Mittelwertinformation und zum Ausgeben eines lokaldecodierten rekonstruierten Pixelblocks und zwei Decodiermittel zum Codieren des lokal decodierten rekonstruierten Pixelblocks mit Hilfe eines der Modusinformation entsprechenden Codiervorgangs unter Verwendung einer orthogonalen Transformation und zum Ausgeben von zweiten Codierdaten.
  • Des weiteren wird erfindungsgemäß ein Verfahren zum Codieren eines Bildsignals bereitgestellt, welches die Schritte umfaßt: Aufteilen eines Bildsignals in eine Vielzahl von rechteckigen Pixelblöcken, Berechnen eines Pixel-Mittelwerts jedes Pixelblocks und Subtrahieren des Mittelwerts von jedem einzelnen Pixelwert des Pixelblocks, um einen Mittelwert-Abtrennungspixelblock zu bilden, analysieren von Eigenschaften von Auflösungs- und Gradationsveränderungen in dem Mittelwert-Abtrennungspixelblock und Erzeugen einer die Eigenschaften umfassenden Modusinformation, Codieren des Mittelwert-Abtrennungspixelblocks mit Hilfe eines Codiervorgangs in dem durch die Modusinformation definierten Pixelbereich unter Verwendung eines adaptiven Näherungscodierers, wobei der Mittelwert-Abtrennungspixelblock durch einen Unterabtastungsvorgang unter Verwendung eines an die Modusinformation angepaßten Unterabtastungsmusters mit einer nachfolgenden adaptiven Quantisierung unter Verwendung eines an die Modusinformation angepaßten adaptiven Quantisierers angenähert wird, wobei das Verfahren weiterhin die Schritte umfaßt: lokales Decodieren des codierten Mittelwert-Abtrennungsblocks mit Hilfe eines Decodiervorgangs unter Verwendung der Modusinformation und der Mittelwertinformation und Ausgeben eines lokal decodierten rekonstruierten Pixelblocks und Codieren des lokal decodierten rekonstruierten Pixelblocks mit Hilfe eines der Modusinformation entsprechenden Codiervorgangs unter Verwendung einer orthogonalen Transformation und Ausgeben von zweiten Codierdaten.
  • Kurze Beschreibung der Zeichnung
  • Fig. 1 ist ein Blockschaltbild, welches die Struktur eines ersten Ausführungsbeispiels einer erfindungsgemäßen Bildsignal-Codiervorrichtung zeigt,
  • Fig. 2 ist ein Blockschaltbild, welches die Struktur einer in dem ersten erfindungsgemäßen Ausführungsbeispiel eingesetzten Codetransformationseinheit zeigt,
  • Fig. 3 ist ein Blockschaltbild, welches die Struktur einer in dem ersten erfindungsgemäßen Ausführungsbeispiel eingesetzten lokalen Decodiereinheit zeigt,
  • Fig. 4 ist ein Blockschaltbild, welches die Struktur einer in dem ersten erfindungsgemäßen Ausführungsbeispiel eingesetzten zweiten Codiereinheit zeigt,
  • Fig. 5 ist eine Darstellung, welches die Abtasttransformation darstellt,
  • Fig. 6 ist eine Tabelle, welche Beispiele der Verteilung von Pixelwerten in einem Block sowie der Verteilung von DCT-Koeffizienten darstellt,
  • Fig. 7 ist eine Darstellung zur Erläuterung der Koeffizientenauswahl für den Fall einer zweidimensionalen orthogonalen Transformation der Ordnung 8,
  • Fig. 8 zeigt eine Darstellung eines Transformationskoeffizientenblocks und einer Koeffizientenabtastfolge,
  • Fig. 9 zeigt eine Tabelle, in der Gruppen dargestellt sind, welche Unterschiede zwischen Gleichstromanteilen umfassen,
  • Fig. 10 zeigt eine Tabelle, in welcher Codiersymbole in Wechselstromanteilen dargestellt sind,
  • Fig. 11 ist ein Blockschaltbild, welches die Struktur eines zweiten erfindungsgemäßen Ausführungsbeispiels der Bildsignal-Codiervorrichtung zeigt,
  • Fig. 12 ist ein Blockschaltbild, welches die Struktur einer vorgeschlagenen Bildsignal- Codiervorrichtung zeigt,
  • Fig. 13 ist eine erläuternde Darstellung der Abtasttransformation eines Bildes,
  • Fig. 14 ist ein Blockschaltbild, welches die Struktur eines in der vorgeschlagenen Bildsignal-Codiervorrichtung eingesetzten Modusunterscheiders zeigt,
  • Fig. 15 ist eine Darstellung zur Erläuterung der Signalforminformationanalyse,
  • Fig. 16 ist ein Blockschaltbild, welches die Struktur eines in der vorgeschlagenen Bildsignal-Codiervorrichtung eingesetzten adaptiven Näherungscodierers zeigt,
  • Fig. 17 ist eine Darstellung zur Erläuterung der Gewinninformationsanalyse, und
  • Fig. 18 ist eine erläuternde Darstellung, welche die Codestruktur zeigt.
  • Beschreibung der bevorzugten Ausführungsbeispiele
  • Fig. 1 ist ein Blockschaltbild, welches die Struktur eines ersten erfindungsgemäßen Ausführungsbeispiels einer Bildsignal-Codiervorrichtung zeigt. In Fig. 1 sind diejenigen Abschnitte, welche denen der in Fig. 12 gezeigten vorgeschlagenen Vorrichtung entsprechen, mit denselben Bezugszeichen versehen.
  • Das Bezugszeichen 1 bezeichnet ein Eingangsbild, welches mit Hilfe des in Fig. 13 gezeigten Rasterscanvorgangs eingegeben wird, 12 bezeichnet Codierdaten, welche von einer Bildsignal-Codiereinheit 100 codiert werden, und 102 bezeichnet zweite Codierdaten, welche von einer Codetransformationseinheit 101 transformiert werden. Die Bildsignal-Codiereinheit 100 codiert das Eingangsbild 1 in Übereinstimmung mit dem Verfahren, welches bereits zuvor in der vorliegenden Spezifikation in der Beschreibung zum Stand der Technik erläutert worden ist, und gibt die Codierdaten 12 aus, und die Codiertransformationseinheit 101 decodiert lokal die Codierdaten 12 und codiert anschließend erneut die decodierten Daten gemäß einem anderen Algorithmus als die Bildsignal-Codiereinheit 100, um auf diese Weise deren Code zu transformieren, und gibt anschließend die Codierdaten 102 aus.
  • Die in Fig. 1 gezeigte Signal-Codiereinheit 100 ist identisch zu derjenigen, die bereits zuvor in der vorliegenden Spezifikation in der Beschreibung zu dem Stand der Technik erläutert worden ist, so daß auf eine Beschreibung von ihr an dieser Stelle verzichtet wird.
  • Fig. 2 ist ein Blockschaltbild, welches die Struktur der in Fig. 1 gezeigten Codetransformationseinheit 101 darstellt. In Fig. 2 bezeichnet das Bezugszeichen 5 eine Mittelwertinformation, welche mit Hilfe einer Abtrenneinheit 200 von den Codierdaten 12 abgetrennt wird, 10 bezeichnet einen Näherungsblock, der mit Hilfe der Abtrenneinheit 200 von den Codierdaten 12 abgetrennt wird, 8 bezeichnet eine Modusinformation, welche mit Hilfe der Abtrenneinheit 200 von den Codierdaten 12 abgetrennt wird, und 205 bezeichnet einen lokal decodierten Pixelblock, der mit Hilfe der lokalen Decodiereinheit 204 decodiert wird. Die Abtrenneinheit 200 trennt die Mittelwertinformation 5, den Näherungsblock 10 und die Modusinformation 8 von den Codierdaten 12 ab, die lokale Decodiereinheit 204 decodiert den lokal decodierten Pixelblock 205 anhand der Mittelwertinformation 5, des Näherungsblocks 10 und der Modusinformation 8, und eine zweite Codiereinheit 206 codiert erneut den lokaldecodierten Pixelblock 205 in Übereinstimmung mit der Modusinformation 8 und gibt anschließend zweite Decodierdaten 102 aus.
  • Fig. 3 ist ein Blockschaltbild, welches die Struktur der in Fig. 2 gezeigten lokalen Decodiereinheit 204 zeigt.
  • In Fig. 3 bezeichnet das Bezugszeichen 211 eine Rückquantisierung- Steuerinformation, welche von einer Modusinterpretiereinheit 210 ausgegeben wird, um die Rückquantisierungskennlinie einer Rückquantisierungseinheit 213 zu steuern, 212 bezeichnet eine Interpolationssteuerinformation, welche von der Modusinterpretiereinheit 210 ausgegeben wird, um die Interpolationskennlinie einer Interpolationseinheit 215 zu steuern, 214 bezeichnet einen decodierten Unterabtastungsblock, welcher von der Rückquantisierungseinheit 213 ausgegeben wird, und 216 bezeichnet einen decodierten Mittelwertinformation-Abtrennungsblock, welcher von der Interpolationseinheit 215 ausgegeben wird. Die Modusinterpretiereinheit 210 interpretiert die Modusinformation 8 und gibt die Rückquantisierung-Steuerinformation 211 und die Interpolationssteuerinformation 212 aus, die Rückquantisierungseinheit 213 unterzieht den Näherungsblock 10 in Übereinstimmung mit der Rückquantisierung-Steuerinformation 211 einem Rückquantisierungsvorgang, die Interpolationseinheit 215 unterzieht den decodierten Unterabtastungsblock 214 in Übereinstimmung mit der Interpolationssteuerinformation 212 einem Interpolationsvorgang, und eine Mittelwertinformation-Addiereinheit 217 addiert die Mittelwertinformation 5 zu dem decodierten Mittelwert-Abtrennungsblock 216, um auf diese Weise den lokal decodierten Block 205 auszugeben.
  • Fig. 4 ist ein Blockschaltbild, welches die Struktur der in Fig. 2 eingesetzten zweiten Codiereinheit 206 zeigt.
  • In Fig. 4 bezeichnet das Bezugszeichen 221 einen transformierten Koeffizientenblock, der von einer Orthogonaltransformationseinheit 220 ausgegeben wird, 223 bezeichnet eine Maskeninformation, welche von einer Maskeninformation-Erzeugungseinheit 222 ausgegeben und zur Beurteilung der Bedeutung/Bedeutungslosigkeit (Signifikanz/Insignifikanz) des transformierten Koeffizientenblocks 221 verwendet wird, 225 bezeichnet einen ausgewählten Koeffizientenblock, der hinsichtlich seiner Signifikanz/Insignifikanz von einer Koeffizientenauswahleinheit 224 beurteilt wird, und 227 bezeichnet einen quantisierten Koeffizientenblock, der von einer Quantisierungseinheit 226 quantisiert wird. Die Orthogonaltranformationseinheit 220 unterzieht den lokal decodierten Pixelblock 205 einer orthogonalen Transformation und gibt den transformierten Koeffizientenblock 221 aus, die Maskeninformation- Erzeugungseinheit 222 gibt die Maskeninformation 223 aus, welche in Übereinstimmung mit der Modusinformation 8 für jede Koeffizientenposition die Signifikanz/Insignifikanz des Koeffizienten anzeigt, die Koeffizientenauswahleinheit 224 gibt den ausgewählten Koeffizientenblock 225 aus, wobei der Koeffizient an derjenigen Koeffizientenposition, welche durch die Maskeninformation 223 als insignifikant beurteilt worden ist, durch 0 ausgedrückt wird, die Quantisierungseinheit 226 teilt die Koeffizienten des ausgewählten Koeffizientenblocks 225 gemäß Quantisierungsschritten, die zuvor für jede Koeffizientenposition festgelegt worden sind, und gibt den quantisierten Koeffizientenblock 227 aus, und eine Entropiecodiereinheit 228 unterzieht den quantisierten Koeffizientenblock 227 einer Entropiecodierung, um auf diese Weise die zweiten Codierdaten 102 zu erhalten.
  • Nachfolgend wird das erste Ausführungsbeispiel der. Erfindung unter Bezugnahme auf die Fig. 1, 2, 3 und 4 erläutert. Der Betrieb der Bildsignal-Codiereinheit 100 wurde jedoch bereits zuvor in der vorliegenden Spezifikation in der Beschreibung zu dem Stand der Technik erläutert, so daß an dieser Stelle auf Ihre Beschreibung verzichtet wird.
  • Wie in Fig. 18 gezeigt ist, bestehen die von der Bildsignal-Codiereinheit 100 ausgegebenen Codierdaten 12 aus der Modusinformation 8, der Mittelwertinformation 5 und dem Näherungsblock 10. Des weiteren ist die Modusinformation 8 aus der Signalforminformation 18 und der Gewinninformation 27 zusammengesetzt. Die Modusinformation 8, die Mittelwertinformation 5 und der Näherungsblock 10 werden in der Abtrenneinheit 200 getrennt.
  • In der in Fig. 3 gezeigten Modusinterpretiereinheit 210 wird die Signalforminformation 18 der Modusinformation 8, welche einen Auflösungsnäherungsparameter darstellt, von der Gewinninformation 27 der Modusinformation 8, welche einen Gradationsnäherungparameter darstellt, getrennt. Anhand der Signalforminformation 8 kann eindeutig in Übereinstimmung mit einem Unterabtastungsmuster bei der Codierung eine Interpolationsrichtung festgestellt werden. Es wird die Interpolationssteuerinformation 212 erhalten, welche den Interpolationsbetrieb der Interpolationseinheit 215 in Übereinstimmung mit der Interpolationsrichtung steuert. Ebenso kann anhand der Gewinninformation 27 der Modusinformation 8 die Kennlinie und die Anzahl der Rückquantisierungsschritte der Rückquantisierung eindeutig entsprechend der Anzahl der Quantisierungsschritte bestimmt werden. Es wird die Rückquantisierung-Steuerinformation 211 erhalten, um den Rückquantisierungsbetrieb der Rückquantisierungseinheit 213 in Übereinstimmung mit der Kennlinie der Rückquantisierung und der Anzahl der Rückquantisierungsschritte zu steuern.
  • In der in Fig. 3 gezeigten Rückquantisierungseinheit 213 wird der Näherungsblock 10 unter Verwendung der Rückquantisierungskennlinie und der Rückquantisierungsschrittanzahl, welche durch die Rückquantisierung- Steuerinformation 211 mitgeteilt werden, einer Rückquantisierung unterzogen, und es wird der decodierte Unterabtastungsblock 214 ausgegeben. Die Kennlinie der Rückquantisierung und die Anzahl der Rückquantisierungsschritte werden jeweils gemäß dem in Fig. 16 gezeigten adaptiven Quantisierer 34 bereitgestellt.
  • In der in Fig. 3 gezeigten Interpolationseinheit 215 wird der decodierte Unterabtastungsblock 214 mit Hilfe eines Interpolationsvorgangs, der durch die Interpolationssteuerinformation 212 mitzuteilen ist, interpoliert, und es wird der decodierte Mittelwert-Abtrennungsblock 216 ausgegeben. Es werden Kombinationen von Interpolationsvorgängen in Übereinstimmung mit den Unterabtastungsmustern des in Fig. 16 gezeigten adaptiven Unterabtasters 32 bereitgestellt.
  • In der in Fig. 3 gezeigten Mittelwert-Addiereinheit 217 wird die Mittelwertinformation 5 zu den entsprechenden Pixelwerten des decodierten Mittelwert- Abtrennungsblocks 216 hinzuaddiert, um auf diese Weise den lokal ecodierten Pixelblock 205 mit mxn Pixeln auszugeben. Dabei wird der lokal-decodierte Pixelblock 205 gemäß einer in Fig. 5 gezeigten Blockabtastungsfolge ausgegeben.
  • Als nächstes wird nachfolgend die zweite Decodiereinheit 206 unter Verwendung von Fig. 4 beschrieben.
  • In der Orthogonaltransformationseinheit 220 wird der lokal-decodierte Pixelblock 205 mit den mxn Pixeln einer zweidimensionalen orthogonalen Transformation unterzogen, und es wird der transformierte Koeffizientenblock 221 ausgegeben. In Fig. 6 sind Beispiele von einzugebenden Pixelblöcken und transformierten Koeffizientenblöcken dargestellt. Die Zahlenwerte der Pixelblöcke stellen jeweils die Pixelwerte dar, und die Zahlenwerte der transformierten Koeffizientenblöcke stellen jeweils die Werte der transformierten Koeffizienten dar.
  • Die Maskeninformation-Erzeugungseinheit 222 gibt in Übereinstimmung mit der den Auflösungsnäherungsparameter darstellenden Signalforminformation 18 sowie der den Gradationsnäherungsparameter darstellenden Gewinninformation 27, die jeweils in der Modusinformation 8 enthalten sind, die Maskeninformation 223 aus, welche die Signifikanz/Insignifikanz der entsprechenden Koeffizienten des transformierten Koeffizientenblocks 221 anzeigt. Dies entspricht einem Prozeß, bei dem die Signalverteilung eines Frequenzbereichs anhand der räumlichen Eigenschaften des Bildsignals, d. h. des Ergebnisses der Analyse der Auflösung und Gradation des Bildsignals, abgeschätzt wird.
  • Wie in Fig. 6(A) gezeigt ist, wird beispielsweise bei einem Pixelblock, dessen Gradation in horizontaler Richtung schwankt, die elektrische Leistung der Koeffizienten nach der orthogonalen Transformation wie in Fig. 6(a) gezeigt auf die erste Zeile konzentriert. Des weiteren wird bei einem Pixelblock, dessen Gradation in vertikaler Richtung schwankt, wie es in Fig. 6(B) gezeigt ist, die Koeffizientenleistung nach der orthogonalen Transformation auf die erste Spalte konzentriert, wie es in Fig. 6(B) gezeigt ist. Derartige gleichförmige Gradationsschwankungen, wie sie in Fig. 6(A) und (B) gezeigt sind, sind selten, und die Leistung wird genauso auf andere Koeffizienten verteilt. Überwiegen jedoch die horizontalen und vertikalen Gradationsschwankungen, sind die Koeffizienten in der Nähe der ersten Zeile oder der ersten Spalte jeweils bei der Wiedergabe für die Bildqualität von Bedeutung. Ist andererseits, wie in Fig. 6(C) gezeigt ist, eine schrägverlaufende Kante vorhanden, wird die Leistung über einen breiten Bereich verteilt und konzentriert sich um die diagonalen Komponenten des transformierten Koeffizientenblocks, wie es in Fig. 6(C) gezeigt ist. In diesem Fall wird bei der Wiedergabe der Bildqualität die Anzahl der auszuwählenden Koeffizienten im Vergleich zu den in Fig. 6(A) und 6(B) gezeigten Fällen erhöht.
  • Anhand der Richtung der Unterabtastung, d. h. anhand der direktionalen Eigenschaften der Beziehungen zwischen den Pixeln in den Pixelblöcken, können Kenntnisse darüber gewonnen werden, ob die Verteilung der elektrischen Leistung in dem transformierten Koeffizientenblock 221 in Richtung einer Zeile, in Richtung einer Spalte oder in diagonaler Richtung verläuft. Aufgrund der Tatsache, daß die Unterabtastrate die Intensität der Zwischenbeziehung anzeigt, ist zudem verständlich, daß die elektrische Leistung mit zunehmender Unterabtastrate insgesamt stärker auf bestimmte Koeffizienten in einem Niederfrequenzbereich konzentriert wird. Ausgehend von der Quantisierungskenngröße und dem Quantisierungsgrad kann das Vorhandensein und die Größe der Kante in dem Pixelblock abgeschätzt werden.
  • Wie oben beschrieben worden ist, wird in der Maskeninformation-Erzeugungseinheit 222 die Maskeninformation 223, welche die Position der für die Reproduktion der Bildqualität erforderlichen Koeffizienten anzeigt, ausgehend von der Unterabtastungsrichtung, der Unterabtastrate, der Quantisierungskennlinie und dem Quantisierungsgrad, die jeweils durch die Modusinformation 8 erhalten werden, bestimmt und an die Koeffizientenauswahleinheit 224 ausgegeben.
  • Nachfolgend wird der Betrieb der Koeffizientenauswahleinheit 224 unter Verwendung von Fig. 7 beschrieben.
  • Die Maskeninformation 223 zeigt mit Hilfe von binären "1"- oder "0"-Informationen für jede Koeffizientenposition an, ob der entsprechende Koeffizient in dem transformierten Koeffizientenblock 221 signifikant oder insignifikant ist. Wie in Fig. 7 gezeigt ist, werden von dem Koeffizientenblock 221 lediglich diejenigen Koeffizienten ausgewählt, die an den einer "1" in der Maskeninformation 223 entsprechenden Positionen vorhanden sind, wodurch der ausgewählte Koeffizientenblock 225 gebildet wird.
  • Die Quantisierungseinheit 226 quantisiert die entsprechenden Koeffizienten des ausgewählten Koeffizientenblocks 225 und gibt den quantisierten Koeffizientenblock 227 aus. Der Quantisierungsprozeß kann durch die folgende Gleichung ausgedrückt werden:
  • Dabei entspricht F(u, v) dem ausgewählten Koeffizientenblock 225, Q(u, v) entspricht den Quantisierungsschritten, C(u, v) entspricht dem quantisierten Koeffizientenblock 227 bzw. u, v entspricht einer Position in dem Block.
  • Die Entropiecodiereinheit 228 codiert den quantisierten Koeffizientenblock 227 mit Hilfe einer Entropiecodierung, wie beispielsweise einer Huffman-Codierung, einer arithmetischen Codierung oder dergleichen und gibt die zweiten Codierdaten 102 aus. In Fig. 8 ist der quantisierte Koeffizientenblock 227 dargestellt. Die in dem Block 227 enthaltenen Koeffizienten werden innerhalb der Matrix zickzackartig abgetastet, wie es durch durchgezogene Pfeile in Fig. 8 angedeutet ist, um auf diese Weise eine eindimensionale Koeffizientenlinie zu erhalten, und es wird ein Codiervorgang in dieser Reihenfolge durchgeführt.
  • Bei der Entropiecodierung werden zunächst Codiersymbole gebildet, welche als Ziele für eine Codezuordnung dienen. Die Symbole werden individuell durch Komponenten in Übereinstimmung mit dem Unterschied zwischen den statistischen Eigenschaften der Gleichstromkomponente und der Wechselstromkomponente gebildet. Auch bei der Codezuordnung wird die Codierung individuell zugeführt. Wird beispielsweise die Huffman-Codierung durchgeführt, werden individuelle Codetabellen, wie z. B. eine Tabelle für Gleichstromkomponenten, eine Tabelle für Wechselstromkomponenten und dergleichen, bereitgestellt.
  • Nachfolgend wird ein Verfahren zum Bilden von Symbolen für die Gleichstromkomponenten erläutert. Im Falle von Gleichstromkomponenten wird zunächst der Unterschied zwischen den Gleichstromkomponenten eines vorhergehenden Blocks und eines augenblicklichen Blocks ermittelt, und die sich daraus ergebenden Werte werden in Übereinstimmung mit Fig. 9 in Gruppen eingeteilt. Die Nummern der auf diese Weise klassifizierten Gruppen dienen als Codiersymbole. Ebenso wird die Zuordnung der auf diese Weise ermittelten Differenzwerte zu den Nummern der Gruppe durch einen Bitstring (ein zusätzliches Bit) dargestellt, welcher dieselbe Nummer wie die Gruppennummer besitzt.
  • Nachfolgend wird ein Verfahren zum Bilden der Symbole für die Wechselstromkomponenten erläutert. Wie in Fig. 8 gezeigt ist, werden die Wechselstromkomponenten mit Ausnahme der Gleichstromkomponente innerhalb des Blocks zickzackartig abgetastet. In diesem Fall werden die Codiersymbole durch eine Kombination einer Länge (Null-Lauf), in der ungültige Koeffizienten (Null- Koeffizienten) ununterbrochen vorhanden sind, bis ein gültiger Koeffizient (dessen Wert nicht Null ist) auftritt, und der Gruppennummer, wenn die gültigen Koeffizienten ähnlich zu den Gleichstromkomponenten in Gruppen eingeteilt werden (wobei jedoch nicht die Gruppe 0 verwendet werden darf), gebildet. Ist die maximale Länge des Null- Laufs auf 15 begrenzt, und ist auch die Gruppennummer auf 15 begrenzt, kann, wie in Fig. 10 gezeigt ist, eine Tabelle mit 256 Codiersymbolen gebildet werden. Ähnlich zu dem Fall der Gleichstromkomponenten wird die tatsächliche Zugehörigkeit der Koeffizientenwerte zu der Gruppennummer durch ein zusätzliches Bit angezeigt.
  • Wird die Huffman-Codierung verwendet, werden die zweiten Codierdaten 102 gebildet, indem Codes in Übereinstimmung mit der Wahrscheinlichkeit des Auftretens der in den oben erwähnten Prozeduren gebildeten Symbole zugeordnet werden.
  • Fig. 11 ist ein Blockschaltbild, welches die Struktur eines zweiten erfindungsgemäßen Ausführungsbeispiels der Bildsignal-Codiervorrichtung zeigt. In Fig. 11 ist eine Speichereinheit 103 zwischen der Bildsignal-Codiereinheit 100 und der Codetransformationseinheit 101 vorgesehen, um die Codierdaten 12 temporär zu speichern.
  • Aufgrund des Vorhandenseins der Speichereinheit 103 kann lediglich der Teil des Eingangsbilds 1 in die zweiten Codierdaten transformiert werden. Ebenso ist es möglich, in der Speichereinheit 103 die Codierdaten 12 einem Editiervorgang zu unterziehen.
  • Wie zuvor beschrieben worden ist, können mit Hilfe der vorliegenden Erfindung die folgenden Wirkungen erzielt werden.

Claims (1)

  1. (1) Aufgrund der Tatsache, daß die Codierdaten mit Hilfe der Codetransformationseinheit erneut zu den zweiten Codierdaten höherer Kompressibilität codiert werden können, können die Daten effektiv übertragen und gespeichert werden.
    (2) Durch das Vorsehen der Maskeninformation-Erzeugungseinheit kann die Maskeninformation erzeugt werden, welche zur Unterscheidung zwischen signifikanten und insignifikanten Koeffizienten des transformierten Koeffizientenblocks in Übereinstimmung mit der Modusinformation verwendet wird, und die Koeffizientenauswahl wird in der Koeffizientenauswahleinheit durchgeführt. Dadurch wird die Verschlechterung der Bildqualität des Kantenabschnitts verbessert.
    (3) Durch die Anwendung einer wohlbekannten, auf einer Transformationsanwendung beruhenden Codiertechnologie in der zweiten Codiereinheit kann sichergestellt werden, daß die Daten mit anderen Bildverarbeitungsvorrichtungen bearbeitet werden können.
    (4) Da ein zweiter Codiervorgang im Frequenzbereich durch einen ersten Codiervorgang im Pixelbereich durchgeführt wird, muß die erste Codierinformation nicht wiedergewonnen werden, sondern es kann in der nächsten Stufe ein Codiervorgang durchgeführt werden, wobei die erste codierte Information unverändert beibehalten wird, so daß mit einer einfachen Struktur eine zweistufige Hochkompression ausgeführt werden kann. Dabei ist zu bemerken, daß die gemeinsame Verarbeitungseinheit für den ersten und zweiten Codiervorgang eingesetzt wird, und das erste codierte Signal wird direkt dem zweiten codierten Signal zugeführt. Insbesondere wird der gemeinsame Verarbeitungsblock unter der Bedingung ausgewählt, daß er dem Zustand der Kenngrößenverteilung des Bildes gerecht wird und für eine Echtzeitverarbeitung geeignet ist. Demzufolge kann auch dann die Echtzeitverarbeitung durchgeführt werden, wenn beispielsweise das erste codierte Signal einmalig in einem Seitenspeicher gespeichert wird. Die zweistufige Hochkompression kann somit vollständig auf Echtzeitbasis und mit hoher Geschwindigkeit durchgeführt werden. Wie oben beschrieben worden ist, stehen die ersten und zweiten Codieralgorithmen, welche sich voneinander unterscheiden, in einer derartigen Beziehung zueinander, daß sie hinsichtlich der Genauigkeit und des Kompressionsverhältnisses zueinander kompatibel sind. Dies konnte nicht mit den herkömmlichen Technologien erzielt werden.
    (5) Aufgrund der Tatsache, daß die erste Codierung durch die Modusunterscheidung in dem Pixelbereich und die zweite Codierung durch Verwendung der Ergebnisse der Modusunterscheidung zur Verarbeitung von Koeffizienten im Frequenzbereich durchgeführt wird, ist es möglich, die zweite Codierung im Frequenzbereich mit hoher Genauigkeit in einer einfachen Modusunterscheidungsstruktur zu transformieren, ohne daß irgendwelche Mittel für den zweiten Codiervorgang hinzugefügt werden müßten. Dabei ist zu bemerken, daß die gemeinsame Verarbeitungsblockeinheit in dem ersten und zweiten Codiervorgang eingesetzt wird. Insbesondere kann die Hochkompression ohne Verschlechterung der Bildqualität realisiert werden, da die zweistufige Kompression für den gemeinsamen Verarbeitungsblock durchgeführt wird.
    (6) Da die zweiten codierten Ergebnisse nicht die Modusunterscheidungsinformation enthalten, ist keine besondere Empfangsanordnung erforderlich.
    (7) Soll beispielsweise in dem internationalen JPEG-Standardsystem eine Bildinformation von einer auf einer Senderseite vorgesehenen Anordnung, welche eine Kompressionsfunktion aufweist, übertragen werden, kann aufgrund der zweiten Codierung im Frequenzbereich einer auf der Seite des internationalen Standard-Systems vorgesehenen Anordnung, welche keine Modusunterscheidungsfunktion aufweist, eine Bildverschlechterung verringert werden. Des weiteren kann als Empfangsanordnung jede beliebige Anordnung verwendet werden, vorausgesetzt, daß sie dem internationalen JPEG-Standardsystem entspricht.
    Dank der oben erwähnten Wirkungen kann durch Kombinieren der vorliegenden Erfindung mit dem vorgeschlagenen Codierverfahren, welches eine Verringerung des Seitenspeichers zum Ziel hat, ein effektives Bilddaten-Codierverfahren realisiert werden.
    Des weiteren ist sowohl eine Teilcodetransformation eines Bildes als auch die Codetransformation nach dem Editierprozeß möglich, in dem die Speichereinheit zwischen der Bildsignal-Codiereinheit und der Codetransformationseinheit vorgesehen wird, wodurch eine Verarbeitung der unnötigen Bilddaten eingespart wird.
    Konkordanzliste der Figurenbeschriftungen
    Fig. 1
    1: Eingangsbild
    12: Codierdaten
    101: Bildsignal-Codiereinheit
    101: Codetransformationseinheit
    102: zweite Codierdaten
    Fig. 2
    5: Mittelwertinformation
    8: Modusinformation
    12: Codierdaten
    102: zweite Codierdaten
    200: Abtrennungseinheit
    204: lokale Decodiereinheit
    206: zweite Codiereinheit
    Fig. 3
    5: Mittelwertinformation
    8: Modusinformation
    10: Näherungsblock
    205: lokal-decodierter Pixelblock
    210: Modusinterpretiereinheit
    213: Rückquantisierungseinheit
    215: Interpolationseinheit
    217: Mittelwertaddiereinheit
    Fig. 4
    8: Modusinformation
    102: zweite Codierdaten
    205: lokal-decodierter Pixelblock
    220: Orthogonaltransformationseinheit
    222: Maskeninformation-Erzeugungseinheit
    224: Koeffizientenauswahleinheit
    226: Quantisierungseinheit
    228: Entropiecodiereinheit
    Fig. 6
    (A): Pixelblock 1 (horizontale Gradation)
    (B): Pixelblock 2 (vertikale Gradation)
    (C): Pixelblock 3 (schräge Kante)
    (a): Koeffizientenverteilung bei DCT-Transformation des Pixelblocks 1
    (b): Koeffizientenverteilung bei DCT-Transformation des Pixelblocks 2
    (c): Koeffizientenverteilung bei DCT-Transformation des Pixelblocks 3
    Fig. 7
    224: Koeffizientenauswahleinheit
    transformation coefficient: Transformationskoeffizient
    non-zero-coefficient: Nicht-Null-Koeffizient
    zero-coefficient: Null-Koeffizient
    selected transformation coefficient: ausgewählter Transformationskoeffizient
    Fig. 8
    low: niedrig
    high: hoch
    D. C. components: Gleichstromanteile
    horizontal directions: horizontale Richtung
    vertical directions: vertikale Richtung
    frequency components: Frequenzanteile
    Fig. 9
    Group No. (encoding symbol): Gruppennummer (Codiersymbol)
    differences in D. C. components: Unterschiede zwischen den Gleichstromkomponenten
    number of additional bits: Anzahl an zusätzlichen Bits
    Fig. 10
    size: Größe
    run: Lauf
    encoding symbol depending on a combination of run and size: Codiersymbol, welches von der Kombination des Laufs und der Größe abhängt
    group number of level values of valid coefficients: Gruppennummer der Pegelwerte von gültigen Koeffizienten
    runs of invalid coefficients
    from 0 to 15: Läufe von ungültigen Koeffizienten von 0 bis 15
    however, when size = 0: jedoch, falls Größe = 0
    run = 0: end of block: Lauf = 0: Ende des Blocks
    run = 15 : 16 invalid coefficient runs (for 16 or more runs, this will be repeated): Lauf = 15 : 16 ungültige Koeffizientenläufe (dies wird bei 16 oder mehr Läufen wiederholt)
    Fig. 11
    1: Eingangsbild
    12: Codierdaten
    100: Bildsignal-Codiereinheit
    101: Codetransformationseinheit
    102: zweite Codierdaten
    103: Speichereinheit
    Fig. 12
    1: Eingangsbild
    2: Blockungsabschnitt
    3: Eingangsblock
    4: Mittelwertabtrenner
    5: Mittelwertinformation
    6: Mittelwert-Abtrennungsblock
    7: Modusunterscheider
    8: Modusinformation
    9: adaptiver Näherungscodierer
    10: Näherungsblock
    11: Decodierer und Multiplexer
    12: Codierdaten.
    Fig. 13
    1: Eingangsbild (Rasterscan-Vorgang)
    input block transformation: Eingangsblocktransformation
    blocking format: Blockungsformat
    sub-block: Unterblock
    Fig. 14
    6: Mittelwert-Abtrennungsblock
    8: Modusinformation
    14: Signalformanalysator
    15: Musteranpassungsanordnung
    16: Vektorindex
    17: Signalform-Abbildungtabelle
    18: Signalform-Information
    20: Gewinnanalysator
    22: Varianzberechner
    23: Varianz
    24: Histogrammzähler
    25: Histogramminformation
    26: Gewinnabbildungstabelle
    27: Gewinninformation
    Fig. 15
    divided space: unterteilter Bereich
    k-dimension signal space: k-dimensionaler Signalbereich
    hyperspherical surface: Überraumoberfläche
    space division by hyperplane: Raumteilung durch Überebene
    first stage: erste Stufe
    second stage: zweite Stufe
    barycentric pattern corresponding to divided space: barizentrisches Muster entsprechend dem unterteilten Raum
    sub-sampling pattern: Unterabtastungsmuster
    sub-sampled pixel: unterabgetastetes Pixel
    Fig. 16
    6: Mittelwert-Abtrennungsblock
    8: Modusinformation
    9: adaptiver Näherungscodierer
    10: Näherungsblock
    30: Unterabtastungsmustergenerator
    32: adaptiver Unterabtaster
    33: Unterabtastungsblock
    34: adaptiver Quantisierer
    Fig. 17
    photograph: Fotografie
    character: Zeichen
    histogram: Histogramm
    block variance value: Block-Varianzwert
    Fig. 18
    5: Mittelwertinformation
    8: Modusinformation
    10: Näherungsblockinformation
    12: Codedatenformat
    18: Signalforminformation
    27: Gewinninformation
DE69324743T 1992-08-21 1993-08-20 Vorrichtung und Verfahren zur Bildsignalkodierung Expired - Fee Related DE69324743T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22298892A JP3196906B2 (ja) 1992-08-21 1992-08-21 画像信号の符号化装置

Publications (2)

Publication Number Publication Date
DE69324743D1 DE69324743D1 (de) 1999-06-10
DE69324743T2 true DE69324743T2 (de) 1999-09-09

Family

ID=16791046

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69324743T Expired - Fee Related DE69324743T2 (de) 1992-08-21 1993-08-20 Vorrichtung und Verfahren zur Bildsignalkodierung

Country Status (4)

Country Link
US (1) US5754698A (de)
EP (1) EP0584741B1 (de)
JP (1) JP3196906B2 (de)
DE (1) DE69324743T2 (de)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4859490A (en) * 1986-07-23 1989-08-22 Sumitomo Electric Industries, Ltd. Method for synthesizing diamond
EP0661885A1 (de) * 1993-12-28 1995-07-05 Canon Kabushiki Kaisha Bildverarbeitungsverfahren und Vorrichtung zur Umwandlung von in verschiedenen Formaten codierten Daten
US5715009A (en) 1994-03-29 1998-02-03 Sony Corporation Picture signal transmitting method and apparatus
AU743585B2 (en) * 1994-06-17 2002-01-31 British Broadcasting Corporation, The Video compression
EP0765576B1 (de) * 1994-06-17 2007-08-08 SNELL & WILCOX LIMITED Videokompression
GB9413001D0 (en) * 1994-06-28 1994-08-17 Ntl Methods for the synchronisation of successive digital video compression/decompression systems
FR2722052A1 (fr) * 1994-06-30 1996-01-05 Philips Electronics Nv Dispositif de transcodage d'une sequence de signaux numeriques
EP0690392B1 (de) * 1994-06-30 2001-09-26 Koninklijke Philips Electronics N.V. Verfahren und Einrichtung zur Codeumwandlung von codiertem Datenstrom
US5978514A (en) 1994-11-10 1999-11-02 Kabushiki Kaisha Toshiba Image data coding and decoding system for efficiently compressing information using the shape and position of the image content
JPH08294119A (ja) * 1995-04-21 1996-11-05 Toshiba Corp 画像符号化/復号化装置
GB9626359D0 (en) * 1996-12-19 1997-02-05 Olivetti Telemedia Spa Method for encoding digital information
US6389175B1 (en) 1996-12-19 2002-05-14 At&T Laboratories, Limited Method for encoding digital information
JP3432392B2 (ja) * 1997-04-07 2003-08-04 三菱電機株式会社 画像符号化装置、画像符号化方法および画像蓄積/伝送装置
KR100548665B1 (ko) * 1998-01-19 2006-02-03 소니 가부시끼 가이샤 편집 시스템, 편집 제어 장치 및 편집 제어 방법
US6574274B2 (en) * 1998-02-27 2003-06-03 Sony Corporation Picture signal processing system, decoder, picture signal processing method, and decoding method
CA2265089C (en) * 1998-03-10 2007-07-10 Sony Corporation Transcoding system using encoding history information
CN1198457C (zh) 1998-03-17 2005-04-20 松下电器产业株式会社 图象信号处理装置
EP1069777A4 (de) * 1999-02-05 2009-03-04 Sony Corp System zur kodierung, verfahren zur kodierung, system zur dekodierung, verfahren zur dekodierung, vorrichtung zurmultiplexierung, verfahren zur multiplexierung,anzeigesystem und ynzeigeverfahren
US6671323B1 (en) 1999-02-05 2003-12-30 Sony Corporation Encoding device, encoding method, decoding device, decoding method, coding system and coding method
KR100571307B1 (ko) 1999-02-09 2006-04-17 소니 가부시끼 가이샤 코딩 시스템 및 방법, 부호화 장치 및 방법, 복호화 장치및 방법, 기록 장치 및 방법, 및 재생 장치 및 방법
JP3694888B2 (ja) * 1999-12-03 2005-09-14 ソニー株式会社 復号装置および方法、符号化装置および方法、情報処理装置および方法、並びに記録媒体
GB2358539A (en) * 2000-01-21 2001-07-25 Sony Uk Ltd Data processing method which separates parameter data from coded data
JP3603000B2 (ja) * 2000-02-01 2004-12-15 カネボウ株式会社 ハフマン符号化装置、ハフマン符号化方法およびハフマン符号化処理プログラムを記録した記録媒体
US6687410B1 (en) * 2000-02-07 2004-02-03 Sun Microsystems, Inc. Method and apparatus for compression and decompression of data
JP3873139B2 (ja) * 2000-06-09 2007-01-24 株式会社日立製作所 表示装置
FR2812505B1 (fr) * 2000-07-28 2003-01-24 Sagem Procede de sauvegarde d'un message dans un decodeur de television et son decodeur associe
US7190723B2 (en) * 2002-03-27 2007-03-13 Scientific-Atlanta, Inc. Digital stream transcoder with a hybrid-rate controller
FI114071B (fi) * 2003-01-13 2004-07-30 Nokia Corp Kuvien käsitteleminen rajoitetulla bittimäärällä
SG140441A1 (en) * 2003-03-17 2008-03-28 St Microelectronics Asia Decoder and method of decoding using pseudo two pass decoding and one pass encoding
JP4196726B2 (ja) * 2003-05-14 2008-12-17 ソニー株式会社 画像処理装置および画像処理方法、記録媒体、並びに、プログラム
JP4339675B2 (ja) * 2003-12-24 2009-10-07 オリンパス株式会社 グラデーション画像作成装置及びグラデーション画像作成方法
US7555171B2 (en) * 2004-03-15 2009-06-30 Sharp Laboratories Of America, Inc. Systems and methods for down scaling a bitmap
EP2046046A1 (de) * 2007-10-02 2009-04-08 Thomson Licensing Verfahren zur Kodierung und Rekonstruktion von Bilddaten und Vorrichtungen zur Anwendung dieser Verfahren
US8755444B2 (en) 2010-08-06 2014-06-17 Qualcomm Incorporated Two-stage entropy decoding
JP6423163B2 (ja) * 2014-03-12 2018-11-14 株式会社メガチップス 画像処理装置及び画像処理方法
JP6664819B2 (ja) 2014-11-14 2020-03-13 ホアウェイ・テクノロジーズ・カンパニー・リミテッド デジタル画像のブロックのマスクベースの処理のためのシステムおよび方法
WO2016074745A1 (en) * 2014-11-14 2016-05-19 Huawei Technologies Co., Ltd. Systems and methods for processing a block of a digital image
WO2016074744A1 (en) * 2014-11-14 2016-05-19 Huawei Technologies Co., Ltd. Systems and methods for processing a digital image
US10057577B2 (en) * 2015-06-11 2018-08-21 Sony Corporation Pre-charge phase data compression

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5162923A (en) * 1988-02-22 1992-11-10 Canon Kabushiki Kaisha Method and apparatus for encoding frequency components of image information
US5187755A (en) * 1988-06-30 1993-02-16 Dainippon Screen Mfg. Co., Ltd. Method of and apparatus for compressing image data
US5249066A (en) * 1989-02-14 1993-09-28 Fujitsu Limited Method and system for writing and reading coded data
JP3005007B2 (ja) * 1989-12-21 2000-01-31 キヤノン株式会社 画像符号化装置
US5101438A (en) * 1990-02-02 1992-03-31 Ricoh Company, Ltd. Method of discriminating different kinds of image areas, involving two-dimensional orthogonal transforms
US5144688A (en) * 1990-03-23 1992-09-01 Board Of Regents, The University Of Texas System Method and apparatus for visual pattern image coding
US5229864A (en) * 1990-04-16 1993-07-20 Fuji Photo Film Co., Ltd. Device for regenerating a picture signal by decoding
KR950000830B1 (ko) * 1990-06-25 1995-02-02 미쯔비시덴끼 가부시끼가이샤 디지탈 비디오 신호의 부호화 방법 및 이를 이용한 고능률 부호화장치
US5227875A (en) * 1990-08-20 1993-07-13 Kabushiki Kaisha Toshiba System for transmitting encoded image data with quick image expansion and contraction
JP3117091B2 (ja) * 1990-08-23 2000-12-11 富士ゼロックス株式会社 画像符号化装置
DE69132268T2 (de) * 1990-09-29 2000-10-26 Victor Company Of Japan, Ltd. Bildsignalkodierer/Dekodierer mit adaptiver Quantisierung
US5235420A (en) * 1991-03-22 1993-08-10 Bell Communications Research, Inc. Multilayer universal video coder
US5276525A (en) * 1991-03-22 1994-01-04 Bell Communications Research, Inc. Two-dimensional block scanning for subband image and video coding
JP3109854B2 (ja) * 1991-04-23 2000-11-20 キヤノン株式会社 画像符号化方法及び装置
JP3144824B2 (ja) * 1991-05-08 2001-03-12 株式会社リコー 画像再生装置
JPH0563989A (ja) * 1991-08-30 1993-03-12 Fuji Xerox Co Ltd 画像信号の符号化装置
US5345317A (en) * 1991-12-19 1994-09-06 Kokusai Denshin Denwa Kabushiki Kaisha High efficiency coding method for still natural images mingled with bi-level images
JPH05236450A (ja) * 1992-02-21 1993-09-10 Mitsubishi Electric Corp 映像情報圧縮符号化装置
JP3093458B2 (ja) * 1992-07-23 2000-10-03 株式会社東芝 可変レート符・復号化装置
US5379122A (en) * 1992-10-02 1995-01-03 Xerox Corporation Decompression of standard ADCT-compressed images
US5412429A (en) * 1993-03-11 1995-05-02 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Picture data compression coder using subband/transform coding with a Lempel-Ziv-based coder
US5426673A (en) * 1994-02-09 1995-06-20 The Regents Of The University Of California Discrete cosine transform-based image coding and decoding method

Also Published As

Publication number Publication date
EP0584741A2 (de) 1994-03-02
JP3196906B2 (ja) 2001-08-06
EP0584741B1 (de) 1999-05-06
DE69324743D1 (de) 1999-06-10
JPH0670178A (ja) 1994-03-11
US5754698A (en) 1998-05-19
EP0584741A3 (en) 1994-05-25

Similar Documents

Publication Publication Date Title
DE69324743T2 (de) Vorrichtung und Verfahren zur Bildsignalkodierung
DE68927082T2 (de) Verfahren und Vorrichtung für die Bilddatenkomprimierung
DE69227676T2 (de) Verfahren und gerät zur datenkodierung unter verwendung von vektorquantifizierung und lauflängenkodierung und unter verwendung von adaptiver lauflängenkodierung
DE69227726T2 (de) Bildverarbeitungsgerät und -Verfahren
DE69322713T2 (de) Vorrichtung zur orthogonalen Transformationskodierung und -dekodierung
DE69321896T2 (de) Gerät und Verfahren zur Verarbeitung von digitalen Bildsignalen
DE3851468T2 (de) Kodierungsverfahren von Bildsignalen.
DE3751416T2 (de) Bildcodiersystem zum Ueberwachen einer Informationsmenge durch Bildung eines Histogramms.
DE69606441T2 (de) Videodatenkodierer und -dekodierer
DE69230922T2 (de) Videosignalkodierer mit Blockvertauschungstechnik
DE69223560T2 (de) Einrichtung zur Verminderung von Quantisierungsstörungen in einem Zwischenbild-Hybrid-Kodierungssystem mit Bewegungskompensation
DE69735679T2 (de) Verfahren zur Bilddecodierung
DE3850627T2 (de) Vorrichtung zum Codieren von digitalen Videosignalen und eine entsprechende Decodiervorrichtung.
DE69222844T2 (de) Verfahren und Gerät zur Bildkompression für Dokumente
DE69125199T2 (de) Geometrische Vektorquantifizierung
DE69324958T2 (de) Kompression und Dekompression von Bildern
DE69015695T2 (de) Einrichtung zur Transformationskodierung.
DE69126512T2 (de) Bildcodierungsgerät mit Optimierung der erzeugten Codemenge
DE60314305T2 (de) Header-basierte Verarbeitung von mittels Multiskalentransformation komprimierter Bilder
DE69519196T2 (de) Bildverarbeitungsgerät und -verfahren
DE3854846T2 (de) Kodierung eines Bildsignals mit Berücksichtigung des Kontrasts in jedem Bild und Dekodierung analog zur Kodierung
DE69128188T2 (de) Bildverarbeitungsverfahren und -gerät
DE69216898T2 (de) Bildverarbeitungsgerät
DE69126940T2 (de) Blockadaptive lineare prädiktionskodierung mit adaptiver verstärkung und vorspannung
DE69624669T2 (de) Videokodierer und -dekodierersystem und -methoden

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee