DE69525127T2 - Gerät und Verfahren zur Kodierung und Dekodierung von Bildern unter Verwendung einer Kantensynthese und einer Wavelet-Rücktransformation - Google Patents

Gerät und Verfahren zur Kodierung und Dekodierung von Bildern unter Verwendung einer Kantensynthese und einer Wavelet-Rücktransformation

Info

Publication number
DE69525127T2
DE69525127T2 DE69525127T DE69525127T DE69525127T2 DE 69525127 T2 DE69525127 T2 DE 69525127T2 DE 69525127 T DE69525127 T DE 69525127T DE 69525127 T DE69525127 T DE 69525127T DE 69525127 T2 DE69525127 T2 DE 69525127T2
Authority
DE
Germany
Prior art keywords
image
edge
decoded
reduction
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69525127T
Other languages
English (en)
Other versions
DE69525127D1 (de
Inventor
Shiyu Go
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP6264836A external-priority patent/JPH08123967A/ja
Priority claimed from JP15014295A external-priority patent/JP3308767B2/ja
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Publication of DE69525127D1 publication Critical patent/DE69525127D1/de
Application granted granted Critical
Publication of DE69525127T2 publication Critical patent/DE69525127T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/39Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability involving multiple description coding [MDC], i.e. with separate layers being structured as independently decodable descriptions of input picture data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

  • Die Erfindung betrifft ein Kompressionsbild-Codier- und -Decodierverfahren unter Verwendung von Kantensynthese und der Wavelet-Rücktransformation sowie Digitalbild-Codier- und -Decodiervorrichtungen, die dieses Verfahren verwenden.
  • Für leistungsfähige Speicherung und Übertragung von digitalisierten Bildern ist Kompression wesentlich. Kompressionsverfahren wurden beschrieben von der Joint Photographie Experts Group (JPEG) für Standbilder und der Moving Pictures Experts Group (MPEG) für Bewegtbilder. Das JPEG-Verfahren umfasst eine diskrete Kosinustransformation (DCT), gefolgt von Quantisierung und Codierung mit variabler Länge. Das MPEG-Verfahren umfasst einen Nachweis von Bewegungsvektoren. Beide Verfahren benötigen beträchtliche Berechnungen, wobei der Nachweis von Bewegungsvektoren besonders anspruchsvoll ist.
  • In neuerer Zeit hat man sich viel für Wavelet-Transformation als Mittel zur Erzielung von hohen Kompressionsverhältnissen mit relativ maßvollen Berechnungsmengen interessiert. Diese Transformation verwendet eine Familie von Wavelets (Elementarwellen), die durch Dilatation (räumliche Dehnung) und Translation (Parallelverschiebung) verknüpft sind; das heißt, die Familie besteht aus Vorkommen des gleichen Basis-Wavelets an verschiedenen Orten und auf verschiedenen Skalen. Wenn die Skalen eine schrittweise verdoppelnde Reihe bilden, und wenn das Basis-Wavelet überall null ist außer in einem begrenzten Gebiet, können Wavelet-Transformationen und Wavelet-Rücktransformationen mit leistungsfähigen Berechnungsalgorithmen durchgeführt werden.
  • Eine Wavelet-Transformation kann man als einen Filterungsprozess beschreiben, der auf jeder Wavelet-Skala durchgeführt wird. Ein digitalisiertes Bild wird zum Beispiel transformiert durch Filtern mit dem Basis-Wavelet, dann mit dem um einen Faktor zwei räumlich gedehnten Basis-Wavelet, dann mit dem um einen Faktor vier räumlich gedehnten Basis-Wavelet, und so weiter.
  • Ein Wavelet-Codierschema nach dem Stand der Technik benutzt ein komplementäres Paar Wavelets, um ein Bild in eine Hochfrequenzkomponente und eine Niederfrequenzkomponente zu teilen. Diese Komponenten enthalten Informationen über Veränderungen auf Skalen, die kleiner bzw. größer als eine bestimmte Grenz-Skala sind. Dieser Prozess wird in der Niederfrequenzkomponente mit einer Verdopplung der Wavelet-Skala wiederholt, wobei neue Niederfrequenz- und Hochfreguenzkomponenten erhalten werden, dann wieder in der neuen Niederfrequenzkomponente wiederholt, und so weiter. Nach einer bestimmten Anzahl von Wiederholungen werden die Komponenten nach einem Codierschema codiert, das von Niederfrequenz- hin zu Hochfrequenzinformation arbeitet. Dieses Schema ermöglicht eine genaue Bildrekonstruktion, bewahrt aber zu viel Hochfrequenzinformation, um hohe Kompressionsverhältnisse zu erzielen.
  • Ein anderes Wavelet-Codierschema nach dem Stand der Technik benutzt ein Basis- Wavelet, das die erste Ableitung eines Glättungsfilters ist (das heißt, die erste Ableitung einer Tiefpass-Filterungsfunktion). Dieser Wavelet-Typ wirkt als ein Hochpassfilter. Hochfrequenzinformation wird durch Nachweis von lokalen Spitzen (lokale Maxima von Absolutwerten) in dem Ergebnis der Wavelet-Transformation erhalten, die Kanten in dem ursprünglichen Bild entsprechen. Die Größe und der Ort der Spitzenwerte auf einer ausgewählten Skala werden zusammen mit einem Niederfrequenzbild codiert, das durch Glättung auf der größten Skala der Wavelet-Transformation erhalten wird. Auf diese Weise können ziemlich hohe Kompressionsverhältnisse erzielt werden.
  • Um das ursprüngliche Bild aus den codierten Daten zu rekonstruieren, verwendet dieses Verfahren nach dem Stand der Technik einen Algorithmus, abgeleitet aus einem mathematischen Verfahren, das wiederholte Projektionen in einem Hilbert-Raum umfasst. Unter idealen Bedingungen konvergieren die Projektionen gegen einen eindeutigen Satz Daten, die (i) die nötigen lokalen Spitzenwerte enthalten und (ii) innerhalb des Bereiches des Wavelet-Transformations-Operators liegen. An den konvergierten Daten wird dann eine Wavelet-Rücktransformation durchgeführt, um das ursprüngliche Bild zu erhalten.
  • Es ist aber noch zu zeigen, dass die Projektionen immer konvergieren oder dass Daten, die die Bedingungen (i) und (ii) erfüllen, eindeutig sind. In der Praxis besteht die Schwierigkeit, zu wissen, wann die Iteration (Wiederholung) zu stoppen ist. Für einige Bilder sind Daten, die die Bedingungen (i) und (ii) erfüllen, scheinbar nicht eindeutig, und statt zu konvergieren, wandert die Iteration endlos durch den Hilbert-Raum, wobei sie sich zuerst der gewünschten Bildtransformation nähert und dann wieder weg bewegt.
  • Ein weiteres Problem von kantenbasierten Codierschemata ist im Allgemeinen, dass die Codierleistung tendenziell durch Kantenfragmentierung und Unregelmäßigkeiten verschlechtert wird.
  • "Astronomical Image coding using a an edge and texture model" von R. Montufar- Chaveznava et al., Proceedings of the IEEE-SP international symposium an timefrequency and time-sale analysis (Kat. Nr. 94TH8007), Philadelphia, Pennsylvania, USA, 25.-28. Oktober 1994, S. 148-151, offenbart ein Codierschema, bei dem Kanten mittels eines Wavelet-Transformationsmodulus nachgewiesen werden. Kantenpunkte werden aus lokalen Maxima des Wavelet-Transformationsmodulus für eine ausgewählte Wavelet-Skala nachgewiesen, und Kanteninformation in Bezug auf die nachgewiesenen Kanten wird für alle Wavelet-Skalen codiert. Kanteninformation in Bezug auf nicht nachgewiesene Kanten auf der ausgewählten Wavelet-Skala wird jedoch nicht codiert. Daher ist keine vollständige Bildrekonstruktion möglich.
  • "Image Sequence Coding using Orientated Edges" von Giunta et al., Signal Processing Image Communication 2, S. 429-440 (1990), offenbart ein Codierschema, bei dem Kanten in einer Hochfrequenzkomponente eines Bildes nachgewiesen werden. Der Kantennachweis verwendet jedoch Masken- und Mittelfilterung. Daher ist keine vollständige Bildrekonstruktion möglich.
  • Die vorliegende Erfindung sucht ein verbessertes Verfahren zum Codieren und Decodieren zu schaffen.
  • Gemäß der vorliegenden Erfindung wird ein Verfahren zum Codieren und Decodieren eines digitalisierten Bildes geschaffen, das aus Pixeln mit Pixelwerten besteht, mit den Verfahrensschritten, die Schärfe von Kanten in dem digitalisierten Bild nachzuweisen und den Pixeln entsprechende Schärfewerte zuzuordnen; Positions- und Schärfewerte von Pixeln zu codieren, deren Schärfewerte eine bestimmte Schwelle übersteigen, um Kantenbildinformation zu erzeugen; das digitalisierte Bild unter Verwendung einer Kaskadenreihe von zweidimensionalen Glättungs- und Herunterabtastfiltern wiederholt zu filtern und herunterabzutasten, um ein Reduktionsbild zu erzeugen; das Reduktionsbild zu codieren, um Reduktionsbildinformation zu erzeugen; die Kantenbildinformation und die Reduktionsbildinformation an eine Eingabe-/Ausgabevorrichtung zu senden; die Kantenbildinformation und die Reduktionsbildinformation von der Eingabe-/Ausgabevorrichtung zu empfangen; aus der von der Eingabe-/Ausgabevorrichtung empfangenen Kantenbildinformation einen ersten Satz decodierte Kantenbilder zu erzeugen, der mindestens ein erstes decodiertes horizontales Kantenbild und ein erstes decodiertes vertikales Kantenbild enthält; den ersten Satz decodierte Kantenbilder unter Verwendung mindestens eines zweidimensionalen Glättungsfilters zu filtern und herunterabzutasten, um eine Reihe von Sätzen decodierte Kantenbilder zu erzeugen, die den ersten Satz decodierte Kantenbilder enthält; eine Reihe von Sätzen Hochfrequenzbilder durch Synthese herzustellen, indem die Reihe von Sätzen decodierte Kantenbilder mit jeweiligen Kantensynthesefiltern gefiltert wird; die von der Eingabe-/Ausgabevorrichtung empfangene Reduktionsbildinformation zu decodieren, um ein decodiertes Reduktionsbild zu erhalten; und eine Wavelet-Rücktransformation an dem decodierten Reduktionsbild und der Reihe von Sätzen Hochfrequenzbilder durchzuführen, um ein decodiertes digitalisiertes Bild zu erhalten.
  • Gemäß der vorliegenden Erfindung wird außerdem ein Digitalcodierer wie in Anspruch 29 beansprucht und ein Digitaldecodierer wie in Anspruch 43 beansprucht geschaffen.
  • Gemäß der vorliegenden Erfindung wird außerdem ein Bewegbildcodierer/-decodierer wie in Anspruch 54 beansprucht geschaffen.
  • Bevorzugte Merkmaie der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Ausführungsformen der vorliegenden Erfindung werden nun anhand von Beispielen unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:
  • Fig. 1 ist ein Blockdiagramm des Digitalbildcodierers in einer ersten Ausführungsform der Erfindung.
  • Fig. 2 ist ein Blockdiagramm des Digitalbilddecodierers in der ersten Ausführungsform.
  • Fig. 3 ist ein Graph, der Pixelwerte an einer Kante zeigt.
  • Fig. 4 ist ein Blockdiagramm des Digitalbildcodierers in einer zweiten Ausführungsform der Erfindung.
  • Fig. 5 ist ein Flussdiagramm, das den Glättungs- und Herunterabtastprozess in dem Codierer der zweiten Ausführungsform zeigt.
  • Fig. 6 ist ein Blockdiagramm des Digitalbilddecodierers in der zweiten Ausführungsform.
  • Fig. 7 ist ein Flussdiagramm, das die Synthese von Hochfrequenzbildern in der zweiten Ausführungsform zeigt.
  • Fig. 8 ist ein Flussdiagramm, das die Wavelet-Rücktransformation in der zweiten Ausführungsform zeigt.
  • Fig. 9 ist ein Blockdiagramm des Digitalbildcodierers in einer dritten Ausführungsform der Erfindung.
  • Fig. 10 ist ein Flussdiagramm, das eindimensionales Filtern und Herunterabtasten in der dritten Ausführungsform zeigt.
  • Fig. 11 ist ein Blockdiagramm des Digitalbilddecodierers in der dritten Ausführungsform.
  • Fig. 12 ist ein Flussdiagramm, das die Synthese von Hochfrequenzbildern in der dritten Ausführungsform zeigt.
  • Fig. 13 ist ein Flussdiagramm, das die Wavelet-Rücktransformation in der dritten Ausführungsform zeigt.
  • Fig. 14 ist eine Skizze einer Kante, die unregelmäßige Form und Fragmentierung zeigt.
  • Fig. 15 zeigt Dicker-Machen der Kante in Fig. 14 in Übereinstimmung mit einer vierten Ausführungsform der Erfindung.
  • Fig. 16 zeigt Beschneiden der Kante in Fig. 15 in Übereinstimmung mit der vierten Ausführungsform.
  • Fig. 17 ist ein Blockdiagramm des Digitalbildcodierers in einer fünften Ausführungsform, zum Codieren von Bewegtbildern.
  • Fig. 18 ist ein Blockdiagramm des Digitalbilddecodierers in der fünften Ausführungsform.
  • Fig. 19 ist ein Blockdiagramm des Digitalbildcodierers in einer sechsten Ausführungsform der Erfindung.
  • Fig. 20 ist ein Blockdiagramm des Digitalbildcodierers in einer siebten Ausführungsform.
  • Fig. 21 ist ein Blockdiagramm des Digitalbilddecodierers in der siebten Ausführungsform.
  • Fig. 22 ist ein Blockdiagramm des Digitalbildcodierers in einer achten Ausführungsform.
  • Fig. 23 ist ein Blockdiagramm des Digitalbildcodierers in einer neunten Ausführungsform.
  • Fig. 24 ist ein Blockdiagramm des Digitalbilddecodierers in der neunten Ausführungsform.
  • Fig. 25 ist ein Blockdiagramm des Digitalbildcodierers in einer zehnten Ausführungsform.
  • Fig. 26 ist ein Blockdiagramm des Digitalbilddecodierers in der zehnten Ausführungsform.
  • Fig. 27 ist ein Blockdiagramm eines Digitalbildcodierers/-decodierers in einer elften Ausführungsform der Erfindung.
  • Fig. 28 ist ein Blockdiagramm eines Digitalbildcodierers/-decodierers in einer zwölften Ausführungsform.
  • Es wird die folgende Terminologie verwendet.
  • Ein (zweidimensionales) digitalisiertes Bild ist eine Matrix aus Pixeln mit Werten x(i, j), wobei sich die Horizontalkoordinate i und Vertikalkoordinate j über Sätze ganzer Zahlen erstrecken. Die Ausdehnung dieser Koordinaten ist die Größe des Bildes, d. h. die Anzahl von Pixeln in den Horizontal- und Vertikalrichtungen. Die Pixelwerte stellen zum Beispiel Intensitätsabstufungen dar.
  • Ein eindimensionales Bild ist eine horizontale oder vertikale Linie in einem zweidimensionalen digitalisierten Bild, d. h. ein Satz Pixel mit Werten x(i), die mit einer einzigen Koordinate indiziert sind.
  • Eine Standardkante ist ein eindimensionales Bild, das genau einen Schärfeveränderungspunkt hat. Ein Beispiel wäre ein Bild mit Pixelwerten, die sich zuerst mit einer konstanten Rate und dann mit einer anderen konstanten Rate ändern, wie z. B. den Folgenden:
  • Bei dieser Standardkante werden die Pixelwerte zuerst mit einer Rate von -0,5 je Pixel kleiner und dann mit einer Rate von +0,5 je Pixel größer. Eine Standardkante dient als Basismodel für alle in einem digitalisierten Bild vorkommenden Kanten.
  • Herunterabtasten eines digitalisierten Bildes heißt, seine Größe durch einen Prozess zu verkleinern, der allgemein analog zu fotografischer Verkleinerung ist: Indem zum Beispiel jedes n-te Pixel ausgewählt wird, wobei n eine passende ganze Zahl ist. Heraufabtasten heißt, die Größe eines Bildes zu vergrößern, indem neue Pixel zwischen den vorhandenen Pixeln interpoliert werden.
  • Ein (eindimerisionales) Filter ist ein Satz Koeffizienten f(k), wobei sich k über die ganzen Zahlen erstreckt. Die Koeffizienten f(k) ungleich null sind die Abgriffe des Filters.
  • Die Fourier-Transformierte F eines Filters f ist wie folgt definiert, wobei die Summierung über alle Abgriffe erfolgt, e die Basis des natürlichen Logarithmus ist und j die Quadratwurzel von minus eins ist.
  • F(ω) = f(k)·e-jωk
  • Die Konjugierte f* eines Filters f erhält man durch Umkehren der Reihenfolge der Koeffizienten:
  • f*(k) = f(-k)
  • Die Fourier-Transformierte von f* ist daher die komplexe Konjugierte der Fourier- Transformierten von f.
  • Ein Filter hat gerade Symmetrie um i&sub0; herum, wenn es auf beiden Seiten von i&sub0; gleiche Werte hat; das heißt, für alle Werte von k gilt:
  • f(i&sub0; - k) = f(i&sub0; + k)
  • Insbesondere hat ein Filter gerade Symmetrie um null herum, wenn es gleich seiner eigenen Konjugierten ist.
  • Ein Filter hat ungerade Symmetrie um i&sub0; herum, wenn es auf beiden Seiten von i&sub0; entgegengesetzte Werte hat, das heißt:
  • f(i&sub0; - k) = -f(i&sub0; + k)
  • Ein Filter erfüllt die Bedingung für exakte Rekonstruktion, wenn seine Fourier- Transformierte F die folgende Bedingung für alle Werte von ω erfüllt:
  • F(ω) ² + F(ω + π) ² = 1
  • Zwei Filter mit Fourier-Transformierten G und H erfüllen die Bedingung für exakte Rekonstruktion, wenn:
  • G(ω) ² + H(ω) ² = 1
  • Filter, die diese Bedingungen für exakte Rekonstruktion erfüllen, die auch als Bedingungen für perfekte Rekonstruktion bezeichnet werden, sind in der Technik der Wavelet-Transformation bekannt. Ein Paar Filter, die die zweite obige Bedingung für perfekte Rekonstruktion erfüllen, wird als ein komplementäres Paar bezeichnet.
  • Ein eindimensionales Bild x durch ein Filter f zu filtern, bedeutet, ein neues eindimensionales Bild y mit den folgenden Pixelintensitäten zu erhalten:
  • y(i) = x(i + k)·f(k)
  • Diese Operation ist der konventionellen Faltungsoperation unter Verwendung des konjugierten Filters f* äquivalent.
  • y(i) = x(i - k)·f*(k)
  • Der Unterschied zwischen Faltung und Filterung, wie der Ausdruck hierin verwendet wird, liegt bloß in der Schreibweise. Die Bedeutung der folgenden Beschreibung und Patentansprüche würde sich nicht ändern, wenn anstelle von "Filterung" bzw. "Filtern" die Ausdrücke "Faltung" und "Falten" verwendet würden.
  • Ein digitalisiertes Bild x horizontal durch ein Filter f zu filtern, bedeutet, ein neues Bild y wie folgt zu erhalten:
  • y(i, j) = x(i + k, j)·f(k)
  • Ähnlich bedeutet, ein Bild x vertikal durch f zu filtern:
  • y(i, j) = x(i, j + k)·f(k)
  • Eine Filterung kann zweidimensional durchgeführt werden, indem zum Beispiel zuerst in der Horizontalrichtung gefiltert wird und dann in der Vertikalrichtung gefiltert wird, oder umgekehrt.
  • Ein Hochpassfilter ist ein Filter, das kleine Veränderungen bewahrt und große Veränderungen zurückweist. Ein Tiefpassfilter weist kleine Veränderungen zurück und bewahrt große Veränderungen. Glättungsfilter ist ein Synonym für Tiefpassfilter.
  • Die Grenzfrequenz eines Hochpass- oder Tiefpassfilters zeigt die Skala an, die die bewahrten Veränderungen von den zurückgewiesenen Veränderungen teilt. Eine untere Grenzfrequenz entspricht einer größeren Skala von Veränderungen. Frequenz bezieht sich tatsächlich auf die Variable ω in der Fourier-Transformierten F(ω) des Filters.
  • Allgemein, die Fourier-Transformierte eines Hochpassfilters erfüllt F(0) = 0, während für ein Tiefpassfilter F(0) > 0. Wenn F(0) = 1, kann ein Tiefpassfilter große Veränderungen bewahren, ohne deren Größe zu ändern. Nebenbei erwähnt ist F(0) die Summe der Filterkoeffizienten f(k).
  • Erste Ausführungsform
  • Unter Bezugnahme auf Fig. 1 enthält der Digitalbildcodierer in der ersten Ausführungsform einen Eingangsanschluss 10, einen zweidimensionalen Glättungs- und Herunterabtastteil 20 und einen Kantendetektor 21. Der zweidimensionale Glättungs- und Herunterabtastteil 20 enthält eine Kaskadenreihe von zweidimensionalen Glättungsfiltern 22-m (m = 1 bis n, wobei n eine ganze Zahl größer als eins ist) und einen Herunterabtaster 23. Der Digitalbildcodierer enthält außerdem einen Kantenbildcodierer 24, einen Reduktionsbildcodierer 25 und einen Multiplexer 26, die zusammen einen Codierteil 27 bilden.
  • Ein digitalisiertes Bild X&sub0; wird vom Eingangsanschluss 10 in den Kantendetektor 21 und das erste Glättungsfilter 22-1 eingegeben. Das Glättungsfilter 22-1 gibt ein gefiltertes Bild X&sub1; an das nächste Glättungsfilter 22-2 aus, und dieser Prozess setzt sich fort, wobei jedes Glättungsfilter 22-m das vom vorhergehenden Glättungsfilter empfangene Bild Xm-1, filtert und dem nächsten Glättungsfilter 22-1 ein neues gefiltertes Bild Xm zuführt, bis das letzte Glättungsfilter 22-n erreicht ist. Das letzte Glättungsfilter 22-n gibt ein Niederfreguenzbild Xn an den Herunterabtaster 23 aus, der ein Reduktionsbild R an den Reduktionsbildcodierer 25 ausgibt. Der Reduktionsbildcodierer 25 codiert das Reduktionsbild, um Reduktionsbildinformation Cr zu gewinnen.
  • Der Kantendetektor 21 weist Kantenpunkte im Eingangsbild X&sub0; nach und gibt horizontale und vertikale Kantenbilder Sh und Sv an den Kantenbildcodierer 24 im Codierteil 22 aus. Der Kantenbildcodierer 24 codiert diese Kantenbilder, um Kantenbildinformation Cs zu gewinnen. Der Multiplexer 26 kombiniert die Reduktionsbildinformation Cr und Kantenbildinformation Cs zu einem codierten Bild C, das an eine erste Eingabe- /Ausgabevorrichtung (I/O) 28 wie z. B. einen Übertragungskanal, einen Halbleiterspeicher oder eine Magnetplatten-Speichervorrichtung ausgegeben wird.
  • Unter Bezugnahme auf Fig. 2 enthält der Digitalbilddecodierer einen Decodierteit 29, der einen Demultiplexer 30, einen Kantenbilddecodierer 31 und einen Reduktionsbilddecodierer 32 enthält. Der Digitalbilddecodierer enthält außerdem eine Kaskadenreihe von zweidimensionalen Glättungsfiltern 33-m (m = 1 bis n - 1), eine Reihe von Kantensynthesegeneratoren 34-m (m = 1 bis n), einen Heraufabtaster 35 und einen Wavelet-Rücktransformationsprozessor 36. Der Wavelet-Rücktransformationsprozessor 36 enthält eine Kaskadenreihe von Wavelet-Rücktransformationsprozessoren 36-m (m = 1 bis n).
  • Der Demultiplexer 30 empfängt das codierte Bild C von der ersten Eingabe-/Ausgabevorrichtung 28 und trennt es in Kantenbildinformation Cs, die er dem Kantenbilddecodierer 31 zuführt, und Reduktionsbildinformation Cr, die er dem Reduktionsbilddecodierer 32 zuführt. Der Kantenbilddecodierer 31 decodiert Cs, um ein Paar horizontale und vertikale Kantenbilder Sh&sub1; und Sv&sub1; zu erhalten. Diese decodierten Kantenbilder werden der Reihe nach durch die Glättungsfilter 33-m (m = 1 bis n - 1) gefiltert, wobei eine Reihe von Paaren Kantenbilder Shm und Svm (m = 1 bis n) erzeugt wird, in der die ungefilterten Kantenbilder Sh&sub1; und Sv&sub1; das erste Paar sind.
  • Jeder Kantensynthesegenerator 34-m empfängt das entsprechende Paar Kantenbilder Shm und Svm und erzeugt durch Synthesepein Paar horizontale und vertikale Hochfrequenzbilder Yhm und Yvm (m = 1 bis n). Der Reduktionsbilddecodierer 32 decodiert Cr, um ein decodiertes Reduktionsbild R' zu erhalten, welches der Heraufabtaster 35 vergrößert, um ein decodiertes Niederfrequenzbild X'n zu erhalten.
  • Im Wavelet-Rücktransformationsprozessor 36 empfängt jeder Wavelet-Rücktransformationsprozessor 36-m (m = 1 bis n) die entsprechenden Hochfrequenzbilder Yhm und Yvm und ein teilweise rekonstruiertes Bild X'm vom vorhergehenden Wavelet-Rücktransformationsprozessor 36-(m + 1) in der Kaskade und gibt ein teilweise rekonstruiertes Bild X'm, an den nächsten Wavelet-Rücktransformationsprozessor 36-(m - 1) aus. Der erste Wavelet-Rücktransformationsprozessor 36-n in der Kaskade empfängt das decodierte Niederfrequenzbild X'n vom Heraufabtaster 35. Der letzte Wavelet- Rücktransformationsprozessor 36-1 gibt das vollständig rekonstruierte Bild X'&sub0; an eine zweite Eingabe-/Ausgabevorrichtung 37 aus.
  • Jedes der Elemente in den Fig. 1 und 2 enthält einen Speicher zum Speichern von Daten sowie bekannte Schaltungen zur Durchführung von arithmetischen und logischen Operationen. Beschreibungen der Schaltungskonfigurationen werden ausgespart, um die Erfindung nicht hinter irrelevanten Details zu verbergen. Der gesamte Digitalbildcodierer kann als eine einzelne integrierte Halbleiterschaltung hergestellt werden, oder er kann aus einer kleinen Anzahl von solchen Schaltungen aufgebaut werden; ähnlich der Digitalbilddecodierer. Die Erfindung kann außerdem dadurch in die Praxis umgesetzt werden, dass ein Universalprozessor wie z. B. ein Mikroprozessor oder Digitalsignalprozessor mit Speicher zum Speichern von Daten und Programmen zur Durchführung der Funktionen der individuellen Elemente in Fig. 1 oder Fig. 2 versehen wird.
  • Als Nächstes wird der Betrieb beschrieben, wobei mit dem Betrieb des Codierers in Fig. 1 begonnen wird.
  • Das Eingangsbild X&sub0; ist ein digitalisiertes Bild mit Pixelwerten X&sub0;(i, j). Der Kantendetektor 21 weist Kanten durch Nachweis von Veränderungen in der Änderungsrate der Pixelwerte von Pixel zu Pixel nach. Insbesondere nimmt der Kantendetektor 21 Differenzen zwischen benachbarten Pixelwerten, nimmt dann Differenzen zwischen diesen Differenzen und führt schließlich eine Schwellwertoperation durch, um kleine Differenzen auf null zu verkleinern. Dieser Prozess wird in den Horizontal- und Vertikalrichtungen getrennt durchgeführt.
  • In der Horizontalrichtung berechnet der Kantendetektor 21 für pedes Pixel die folgende Pixeldifferenz Pdh(i, j):
  • Pdh(i, j) = X&sub0;(i, j) - X&sub0;(i - 1, j)
  • Als Nächstes berechnet er wie folgt Differenzen Sh(i, j) dieser Pixeldifferenzen Pdh(i, j):
  • Sh(i, j) = Pdh(i + 1, j) - Pdh(i, j) = X&sub0;(i + 1, j) - 2X&sub0;(i, j) + X&sub0;(i - 1, j)
  • Ein äquivalenter Kantennachweis könnte durchgeführt werden, indem das Bild X&sub0; mit einem Filter für zweite Ableitung gefiltert wird, das Koeffizienten (1, -2, 1) hat; es ist aber vorzuziehen, Differenzen von Differenzen zu nehmen, da dies weniger Berechnungen erfordert.
  • Der nachgewiesene Wert Sh(i, j) ist die Kantenschärfe am Pixel (i, j), die auch als die Kantengröße bezeichnet wird. Kantenschärfewerte mit Absolutwerten gleich oder kleiner als ein bestimmter Schwellwert T werden auf null quantisiert. Werte, die T übersteigen, werden ebenfalls quantisiert, um die Anzahl von Bits in den Kantenbilddaten zu vermindern; danach werden die quantisierten Schärfewerte Sh(i, j) an allen Pixeln als das horizontale Kantenbild Sh ausgegeben. Pixel ungleich null im Kantenbild, d. h. Pixel, an denen Sv(i, j) > T, werden als Kantenpunkte bezeichnet.
  • Die Bedeutung der Kantenschärteberechnung kann man in Fig. 3 erkennen. Die Horizontalachse stellt zum Beispiel die Horizontalrichtung in dem Bild dar, und die Vertikalachse stellt den Pixelwert dar. Die Differenz zwischen den Pixelwerten 38 und 39 ist -A, die Differenz zwischen den Pixelwerten 40 und 38 ist B, und die Differenz zwischen diesen Differenzen ist B - (-A) = A + B. Wenn A + B > T, ist das Pixel 38 ein Kantenpunkt mit der Schärfe A + B. Die anderen Pixel in Fig. 3 haben die Schärfe null. Fig. 3 zeigt somit eine Standardkante mit genau einer Schärfeveränderung.
  • Das vertikale Kantenbild wird auf die gleiche Weise erzeugt, indem Differenzen in der Vertikalrichtung genommen werden und dann Differenzen dieser Differenzen genommen werden. Die Kantenschärfe Sv in der Vertikalrichtung ist:
  • Sv(i, j) = X&sub0;(i, j + 1) - 2X&sub0;(i, j) + X&sub0;(i, j - 1)
  • Das vertikale Kantenbild wird wie schon das horizontale Kantenbild quantisiert, wobei Punkte, für die Sv(i, j) ≤ T, auf null gesetzt werden. Die Quantisierung kann durchgeführt werden, indem die Kantenschärfewerte zum Beispiel durch eine Potenz von zwei geteilt werden, oder unter Verwendung einer Quantisierungstabelle. Nebenbei erwähnt wird hierin die gleiche Schreibweise Sh und Sv verwendet, um Kantenschärfewerte vor und nach der Quantisierung zu bezeichnen.
  • Das Glättungsfilter 22-1 verwendet ein Tiefpassfilter h&sub1; mit gerader Symmetrie und einer bestimmten Anzahl von Abgriffen. In der folgenden Beschreibung wird angenommen, dass dieses Filter entweder 2 N + 1 Abgriffe hat und um null herum symmetrisch ist oder 2 N Abgriffe hat und um 1/2 herum symmetrisch ist, wobei N eine geeignete positive ganze Zahl ist. Die Bedingung für gerade Symmetrie im ersten Fall ist:
  • h&sub1;(-k) = h&sub1;(k) (k = 1, 2, ..., N)
  • Die Bedingung für ungerade Symmetrie im zweiten Fall ist:
  • h&sub1;(1 - k) = h&sub1;(k) (k = 1, 2, ..., N)
  • Das Tiefpassfilter h&sub1; erfüllt die Bedingung für exakte Rekonstruktion, und die Summe seiner Abgriffskoeffizienten ist plus oder minus eins. Das heißt, die Fourier-Transformierte H&sub1; von h&sub1; erfüllt die folgenden Bedingungen:
  • H&sub1;(ω) ² + H&sub1;(ω + π) ² = 1
  • H&sub1;(0) = 1
  • Das Glättungsfilter 22-1 führt durch horizontales und vertikales Filtern des Eingangsbildes X&sub0; mit h&sub1; eine zweidimensionale Tiefpass-Filterungsoperation durch, und man erhält:
  • X&sub1;(i, j) = X&sub0;(i + k, j + I)·h&sub1;(k)·h&sub1;(I)
  • Die anderen Glättungsfilter 22-m (m > 1) verwenden ebenfalls Tiefpassfilter hm mit gerader Symmetrie und mit Abgriffskoeffizienten, die sich zu plus oder minus eins summieren. Die Grenzfrequenz jedes Glättungsfilters 22-m (m > 1) ist die halbe Grenzfrequenz des vorhergehenden Filters 22-(m - 1) in der Kaskade. Filter mit diesen Grenzfrequenzen kann man erhalten, indem man den Abgriffsabstand von einem Filter zum nächsten verdoppelt und Nullen einfügt, um die frei gemachten Zwischenräume zu füllen. Ist zum Beispiel die Anzahl der Abgriffe ungerade, so kann man hm wie folgt aus hm-1 erhalten:
  • hm(2k) = hm-1(k)
  • hm(2k + 1) = 0 (k = 0, ±1, ±2, ...)
  • Im Glättungsfilter 22-m wird das Bild Xm-1 horizontal und vertikal durch das Filter hm gefiltert, um das Bild Xm zu erhalten. Wenn das Bild durch die Kaskade läuft, werden Veränderungen auf zunehmend größeren Skalen geglättet, und die Auflösung von feinen Details nimmt entsprechend ab.
  • Nebenbei erwähnt, wenn die Tiefpassfilter hm (m > 1) durch Verdopplung des Abgriffsabstandes erhalten werden, wie oben beschrieben, lassen sie hochfrequente Veränderungen in bestimmten Bereichen oberhalb ihrer Grenzfrequenzen durch. Dies ist zulässig, da diese hochfrequenten Veränderungen schon durch vorhergehende Filter in der Kaskade entfernt worden sind.
  • Der Herunterabtaster 23 herunterabtastet das vom Glättungsfilter 22-n ausgegebene Niederfrequenzbild Xn, um die Bilddatenmenge zu vermindern. Ein einfaches Verfahren zum Herunterabtasten ist, das Bild in Blöcke von je M · M Pixeln zu unterteilen und jeden Block durch einen representativen Pixelwert wie z. B. das Mittel oder den Mittelwert in dem Block zu ersetzen. Dies vermindert die Größe des Bildes sowohl in der Horizontal- als auch in der Vertikalrichtung um einen Faktor M und vermindert die Bilddatenmenge um einen Faktor M² (M ist eine passende ganze Zahl wie z. B. M = 2n). Das vom Herunterabtaster 23 ausgegebene Reduktionsbild R gleicht einer fotografischen Verkleinerung des ursprünglichen Bildes X&sub0;.
  • Der Kantenbildcodierer 24 codiert die quantisierten horizontalen und vertikalen Kantenbilder Sh und Sv unter Verwendung von zum Beispiel Laufzeitcodierung, um die Positionen von Kantenpunkten zu codieren, und Differentialcodienung, um die Schärfewerte an diesen Punkten zu codieren. Alternativ kann man Kettencodierung verwenden, um die Kantenpositionen zu codieren, wobei man den Umstand ausnutzt, dass Kantenpunkte tendenziell in Ketten von aneinander angrenzenden Punkten organisiert sind. Kettencodierung codiert nur die Verschiebung von einer Position zur nächsten in so einer Kette.
  • Der Reduktionsbildcodierer 25 codiert das Reduktionsbild R, indem er zum Beispiel eine diskrete Kosinustransformation durchführt, die resultierenden DCT-Koeffizienten quantisiert und diese in Zickzack-Reihenfolge durch ein Verfahren zum Codieren mit variabler Länge codiert. Alternativ kann das Reduktionsbild R durch ein Vorhersage- Codierverfahren ähnlich dem Differential-Impulsecodemodulations-Verfahren (DPCM- Verfahren), das gewöhnlich für Tonsignale verwendet wird, oder durch irgendein anderes geeignetes Verfahren codiert werden. Wenn der obige Wert von M groß genug ist, ist hohe Codierleistung nicht von entscheidender Bedeutung, da die zu codierende Datenmenge schon durch Herunterabtasten stark vermindert worden ist.
  • Das codierte Bild C, das aus der vom Multiplexer 26 multiplexten Reduktionsbildinformation Cr und Niederfrequenzinformation Cs besteht, wird zur Übertragung oder Speicherung an die erste Eingabe-/Ausgabevorrichtung 28 ausgegeben. Die Menge an codierten Daten wird allgemein auf einen kleinen Bruchteil der Menge im ursprünglichen Bild X&sub0; reduziert, so dass das codierte Bild C effizient übertragen oder gespeichert werden kann.
  • Als Nächstes werden die Decodieroperationen beschrieben. Diese Operationen verwenden weitere Filter em, fm, und gm.
  • Das Filter g&sub1; ist ein Hochpassfilter, das wie folgt mit dem Glättungsfilter h&sub1; in Beziehung steht:
  • g&sub1;(k) = (-1)kh&sub1;(-k)
  • Diese Beziehung bedeutet, dass g&sub1; gerade Symmetrie hat, wenn h&sub1; um null herum symmetrisch war, oder ungerade Symmetrie, wenn h&sub1; um 1/2 herum symmetrisch war.
  • Sie bedeutet weiterhin, dass die Fourier-Transformierte G&sub1; von g&sub1; die komplexe Konjugierte von H&sub1;(ω + π) ist, so dass insbesondere h&sub1; und g&sub1; die Bedingung für exakte Rekonstruktion erfüllen und ein komplementäres Paar bilden. Weiterhin ist G&sub1;(ω + π) die komplexe Konjugierte von H&sub1;(ω), so dass g&sub1; auch allein eine Bedingung für exakte Rekonstruktion erfüllt:
  • H&sub1;(ω) ² + G&sub1;(ω) ² = 1
  • G&sub1;(ω) ² + G&sub1;(ω + π) ² = 1
  • Da H&sub1;(0) = 7, folgt, dass G&sub1;(0) = 0, so dass die Summe der Abgriffskoeffizienten g&sub1;(k) gleich null ist.
  • Die anderen Filter gm (m = 2 bis n) sind ebenfalls Hochpassfilter und stehen durch eine ähnliche Gleichung mit dem entsprechenden hm in Beziehung:
  • Hm(ω) ² + Gm(ω) ² = 1
  • Diese Filter gm kann man auf die gleiche Weise, wie die Filter hm aus h&sub1; erhalten wurden, durch aufeinander folgende Verdopplung des Abgriffsabstandes erhalten.
  • Das Filter fm ist ein Komplettierungsfilter, das in Form seiner Fourier-Transformierten Fm wie folgt definiert ist.
  • Das Filter fm ist ein Tiefpassfilter, dass als Komplettierungsfilter bezeichnet wird und das man durch Ausführen einer Fourier-Rücktransformation an Fm erhält. Sobald man f&sub1; erhalten hat, kann man die anderen fm (m = 2 bis n) durch aufeinander folgende Verdopplung des Abgriffsabstandes daraus gewinnen. Die obige Definition von Fm ist übrigens in der Technik der Wavelet-Transformation bekannt und rührt von der folgenden Gleichung her:
  • H(ω) &sup4; + 2·F(ω)· G(ω) ² = 1
  • Das Filter em ist ein Kantensynthesefilter, das man durch Filtern einer Standardkante mit Einheitsschärfe durch das entsprechende Hochpassfilter gm gewinnt. Wenn gm gerade Symmetrie hat, führen alle Standardkanten mit Einheitsschärfe zum gleichen em, das die folgenden Abgriffswerte em(t) hat. L ist die halbe Länge von gm, d. h. der Abstand von Mittelabgriff zum äußersten Abgriff. Wenn man gm wie oben beschrieben gewinnt, ist L = 2(m-1)N.
  • em(t) = em(-t) = (k - t)·gm(k) wenn 0 &le; t < L
  • em(t) = em(-t) = 0 wenn t &ge; L
  • Wenn gm ungerade Symmetrie hat, ist die Situation ein wenig komplizierter und wird später beschrieben.
  • Es wird nochmals auf Fig. 2 Bezug genommen. Nachdem der Demultiplexer 30 das eingegebene codierte Bild C in Kantenbildinformation Cs und Reduktionsbildinformation Cr getrennt hat, führen die Decodierer 31 und 32 Prozesse durch, die zu den von den Codierern 24 und 25 in Fig. 1 durchgeführten Prozessen umgekehrt sind. Zum Beispiel, wenn der Reduktionsbildcodierer 25 in Fig. 1 eine diskrete Kosinustransformation gefolgt von Quantisierung und Codierung mit variabler Länge durchgeführt hat, führt der Reduktionsbilddecodierer 32 in Fig. 2 eine Decodierung mit variabler Länge, Entquantisierung und dann eine diskrete Kosinus-Rücktransformation durch, um das decodierte Reduktionsbild R' zu erhalten.
  • Wenn die Kantenbilder durch Laufzeit- oder Kettencodierung der Positionen der Kantenpunkte und Differentialcodierung ihrer Schärfen codiert wurden, führt der Kantenbilddecodierer 31 eine Laufzeit- oder Kettendecodierung, um die Kantenpositionen wiederzugewinnen, und einen Ansammelprozess durch, um die Schärfewerte zu erhalten. Außerdem entquantisiert der Kantenbilddecodierer 31 die Schärfewerte.
  • Der Heraufabtaster 35 gewinnt das decodierte Niederfrequenzbild X'n, indem er das decodierte Reduktionsbild R' auf die Größe des ursprünglichen Bildes zurückbringt (die Größe der Kantenbilder und Hochfrequenzbilder). Wenn zum Beispiel jeder Pixelwert im Reduktionsbild R' durch einen Block M · M im Niederfrequenzbild Xn dargestellt wird, kann der Heraufabtaster 35 einfach diesen Wert in alle Pixel in dem entsprechenden Block M · M des decodierten Niederfrequenzbildes X'&sub1; kopieren. Anspruchsvollere Heraufabtastverfahren, die Interpolation umfassen, können ebenfalls verwendet werden, jedoch ist keine fließende Interpolation nötig, da das Bild während der Wavelet-Rücktransformation geglättet wird.
  • Die Kaskaden-Glättungsfilter 33-m (m = 1 bis n - 1) führen auf die gleiche Weise, wie die Kaskaden-Glättungsfilter 22-m aufeinander folgende Filterungsoperationen im Codierer durchgeführt haben, aufeinander folgende zweidimensionale Filterungsoperationen an den Paaren Kantenbilder Shm und Svm durch. Speziell wird Shm durch hm horizontal und vertikal gefiltert, um Shm+1, zu erhalten, und wird Svm durch hm horizontal und vertikal gefiltert, um Svm+1, zu erhalten.
  • Jeder Kantensynthesegenerator 34-m filtert das entsprechende horizontale Kantenbild Shm durch das Kantensynthesefilter em in der Horizontalrichtung und das vertikale Kantenbild Svm durch em in der Vertikalrichtung. Wenn die Glättungsfilter hm eine ungerade Anzahl von Abgriffen haben und die Hochpassfilter gm dementsprechend gerade Symmetrie haben, können die resultierenden horizontalen und vertikalen Hochfrequenzbilder Yhm und Yvm durch die folgenden Gleichungen beschrieben werden:
  • Yhm(i, j) = Shm(i + t, j)·em(t)
  • Yvm(i, j) = Svm(i, j + t)·em(t)
  • Konzeptionell stellt der Kantensynthesegenerator 34 für jeden Kantenpunkt das Ergebnis der Filterung einer Standardkante mit der entsprechenden Schärfe durch das Hochfrequenzfilter gm durch Synthese her. Danach addiert er diese Ergebnisse für alle Kantenpunkte zusammen, um ein Hochfrequenzbild durch Synthese herzustellen.
  • Wenn die Glättungsfilter hm eine gerade Anzahl von Abgriffen haben und die Hochpassfilter gm dementsprechend ungerade Symmetrie haben, ist es vorteilhaft, die Kantensynthese indirekt durchzuführen. Ein Grund ist, dass in diesem Fall die Ergebnisse der Filterung von verschiedenen Standardkanten durch das gleiche gm nicht notwendigerweise gleich sind. Ein anderer Grund ist, dass die resultierenden Kantensynthesefilter em eine unbegrenzte Anzahl von Abgriffen ungleich null haben können.
  • Wenn aber die Differenzen dem(t) zwischen benachbarten Koeffizientenwerten in em genommen werden, haben diese Differenzen die erwünschten Eigenschaften, nur von der Kantenschärfe abzuhängen und außer in einem begrenzten Gebiet null zu sein. Diese Differenzen sind durch die folgende Gleichung gegeben, in der L die gleiche Bedeutung hat wie vorher (L = 2m-1N). Sie stellen das Ergebnis der Filterung einer Standardkante mit Einheitsschärfe mit dem Hochpassfilter gm dar, woraufhin Differenzen zwischen den resultierenden Werten an benachbarten Pixeln genommen werden.
  • dem(t) = dem(-t) = gm(k) wenn 0 &le; t &le; L
  • dem(t) = dem(-t) = 0 wenn t &ge; L
  • Das horizontale Kantenbild Shm wird zuerst horizontal durch dem(t) gefiltert, um ein horizontales differentielles Hochfrequenzbild &Delta;Yh zu erhalten, und das vertikale Kantenbild Svm wird vertikal mit dem(t) gefiltert, um ein vertikales differentielles Hochfrequenzbild &Delta;Yv zu erhalten. Diese differentiellen Hochfrequenzbilder werden durch die folgenden Gleichungen beschrieben:
  • &Delta;Yhm(i, j) = Shm(i + t, j)·dem(t)
  • &Delta;Yvm(i, j) = Svm(i, j + t)·dem(t)
  • Die horizontalen und vertikalen differentiellen Hochfrequenzbilder werden dann aufsummiert, um die horizontalen und vertikalen Hochfrequenzbilder Yhm und Yvm zu erhalten. Wenn die horizontalen und vertikalen Koordinaten i und j beide bei null beginnen, können diese Ansammlungsoperationen wie folgt beschrieben werden:
  • Yhm(0, j) = &Delta;Yhm(0, j)
  • Yhm(i, j) = &Delta;Yhm(i, j) + &Delta;Yhm(i - 1, j) (i > 0)
  • Yvm(i, 0) = &Delta;Yvm(i, 0)
  • Yvm(i, j) = &Delta;Yvm(i, j) + Yvm(i, j - 1) (j > 0)
  • Im Wavelet-Rücktransformationsprozessor 36 führt jeder Wavelet-Rücktransformationsprozessor 36-m unter Verwendung der konjugierten Filter f*m, g*m und h*m von fm, gm und hm drei zweidimensionale Filterungsoperationen durch. Das Bild X'm wird durch h*m horizontal und vertikal gefiltert, das horizontale Hochfrequenzbild Yh*m wird durch g*m horizontal und durch f*m vertikal gefiltert, und das vertikale Hochfrequenzbild Yvm wird durch g*m vertikal und durch f*m horizontal gefiltert. Die drei Ergebnisse werden addiert, um das teilweise rekonstruierte Bild X'm-1 zu erhalten. Diese Wavelet-Rücktransformation ist in der Technik bekannt und wird durch die folgende Gleichung beschrieben:
  • Das rekonstruierte Bild X'&sub0; wird zur Anzeige oder zum Ausdruck an die zweite Eingabe- /Ausgabevorrichtung 37 ausgegeben. Alternativ kann das rekonstruierte Bild für weitere Bildverarbeitung an einen Computer ausgegeben werden.
  • Hochfrequente Bildinformation durch Synthese aus Kantenbildern herzustellen, wie oben beschrieben, ermöglicht es, hohe Kompressionsverhältnisse zu erzielen. Hochfrequenzinformation, die Kanten unterhalb des Schärfeschwellwertes T entspricht, geht verloren, so dass es etwas Verlust an hochfrequenten Schattierungsveränderungen mit niedrigem Pegel gibt, jedoch wird das rekonstruierte Bild nicht gestört, und scharfe Kanten werden wirklichkeitsgetreu bewahrt.
  • Ein Merkmal des erfundenen Codierers ist, dass der Kantennachweis nur auf der Ursprungsbild-Skala durchgeführt wird, so dass der Kantennachweis gleichzeitig mit den Glättungsfilterungs- und Herunterabtastoperationen im Codierer durchgeführt werden kann, was den Codierprozess beschleunigt. Ein weiteres Merkmal ist, dass im Decodierer Hochfrequenzbilder auf jeder Wavelet-Skala in einem einzigen Schritt durch Synthese hergestellt werden, ohne Rückgriff auf iterative Verfahren. Dies vermindert die Rechenbelastung im Decodierer, beschleunigt den Decodierprozess und beseitigt das Problem des Standes der Technik, zu entscheiden, wann die Iteration zu stoppen ist.
  • Zweite Ausführungsform
  • Die zweite Ausführungsform ist der ersten ähnlich, baut aber einen Herunterabtastprozess in jedes Glättungsfilter im Codierer und Decodierer und einen Heraufabtastprozess in jeden Wavelet-Rücktransformationsprozessor im Decodierer ein.
  • Unter Bezugnahme auf Fig. 4 enthält der Digitalbildcodierer in der zweiten Ausführungsform den gleichen Kantendetektor 21 und Codierteil 27 wie in der ersten Ausführungsform, sein zweidimensionaler Glättungs- und Herunterabtastteil 41 verwendet aber Glättungs- und Herunterabtastfilter 42-m (m = 1 bis n). Zusätzlich zur Tiefpassfilterung herunterabtasten diese Kaskaden-Filter 42-m die gefilterten Daten, indem sie jedes zweite Pixel sowohl in der Horizontal- als auch in der Vertikalrichtung ausrangieren.
  • Fig. 5 zeigt ein konzeptionelles Flussdiagramm des Giättungs- und Herunterabtast- Filterungsprozesses. Der erste Verfahrensschritt 43 ist ein vertikaler Glättungsschritt, der unter Verwendung eines Tiefpassfilters h durchgeführt wird, das mit dem Filter h&sub1; in der ersten Ausführungsform identisch ist. Der zweite Verfahrensschritt 44 ist ein vertikaler Herunterabtastschritt, der jedes zweite Pixel in der Vertikalrichtung ausrangiert. Der dritte Verfahrensschritt 45 ist ein horizontaler Glättungsschritt, in dem die restlichen Bilddaten durch das gleiche Filter h in der Horizontalrichtung gefiltert werden. Der vierte Verfahrensschritt 46 ist ein horizontaler Herunterabtastschritt, der jedes zweite Pixel in der Horizontalrichtung ausrangiert.
  • Natürlich müssen die Werte von Pixeln, die unmittelbar nach einer Filterungsoperation ausrangiert werden, in der Filterungsoperation nicht berechnet werden. Die gesamte vom zweidimensionalen Glättungs- und Herunterabtastfilter 42-m durchgeführte Operation kann daher durch die folgende Gleichung beschrieben werden:
  • Xm(i, j) = Xm-1(2i + k, 2j + I)·h(k)·h(I)
  • Diese Operation vermindert die Größe des Bildes sowohl in der Horizontal- als auch in der Vertikalrichtung um einen Faktor zwei. In allen Filtern 42-m (m = 1 bis n) wird das gleiche Tiefpassfilter h verwendet. Es ist nicht notwendig, den Abgriffsabstand durch Einfügen von Koeffizienten null auf aufeinander folgenden Wavelet-Skalen zu verdoppeln, wie in der ersten Ausführungsform.
  • In den Zeichnungen bezeichnet das Symbol hd Filterung durch h, gefolgt von Herunterabtasten, wie oben beschrieben.
  • Fig. 6 zeigt den Digitalbilddecodierer der zweiten Ausführungsform. Der Decodierteil 29 ist der gleiche wie in der ersten Ausführungsform. Das Ausgangssignal des Reduktionsbilddecodierers 32 ist nun mit X'n bezeichnet, ist aber dem Ausgangssignal R in der ersten Ausführungsform ähnlich. Der Decodierer verwendet Filter e, f, g und h, die mit e&sub1;, f&sub1;, g&sub1;, und h&sub1; in der ersten Ausführungsform identisch sind. An diesen Filtern angebrachte tiefgestellte Zeichen d und u bezeichnen zugehörige Herunterabtast- bzw. Heraufabtastoperationen.
  • Die vom Kantenbilddecodierer 31 ausgegebenen Kantenbilder Sv&sub1; und Sh&sub1; werden durch eine Kaskade von Glättungs- und Herunterabtastfiltern 48-m (m = 1 bis n - 1) gefiltert, die mit den im Codierer verwendeten Glättungs- und Herunterabtastfiltern 42-m identisch sind. Jedes Filter 48-m filtert und glättet jedes eingegebene Kantenbild Svm und Shm sowohl in der Vertikal- als auch in der Horizontalrichtung und herunterabtastet das Ergebnis in beiden Richtungen um einen Faktor zwei, um Kantenbilder Svm+1 und Shm+1 zu erzeugen. Infolge des Herunterabtastens ist Svm+1 nur halb so breit und halb so hoch wie Svm, und Shm+1 ist nur halb so breit und halb so hoch wie Shm.
  • Die decodierten Kantenbilder Svm und Shm werden in einen Kantensynthesegenerator 49-m (m = 1 bis n) eingegeben. Dort wird das vertikale Kantenbild Svm in der Horizontalrichtung um einen Faktor zwei herunterabgetastet, in der Vertikalrichtung durch das oben erwähnte Filter e gefiltert und dann in der Vertikalrichtung um einen Faktor zwei herunterabgetastet, während das horizontale Kantenbild Shm pin der Vertikalrichtung um einen Faktor zwei herunterabgetastet, in der Horizontalrichtung durch das Filter e gefiltert und dann in der Horizontalrichtung um einen Faktor zwei herunterabgetastet wird. Diese Operationen sind konzeptionell in Fig. 7 gezeigt. Die resultierenden Hochfrequenzbilder werden wie in der ersten Ausführungsform mit Yhm und Yvm bezeichnet.
  • Die Hochfrequenzbilder Yhm und Yvm (m = 1 bis n) und das niederfrequente Reduktionsbild X'n werden in einen Wavelet-Rücktransformationsprozessor 50 eingegeben, der Kaskaden-Wavelet-Rücktransformationsprozessoren 50-m (m = 1 bis n) enthält. Die Prozessoren 50-m verwenden die konjugierten Filter f*, g* und h*, um die gleiche Berechnung wie in der ersten Ausführungsform durchzuführen, wobei aber jedem Filterungsschritt bei der Berechnung ein Heraufabtastschritt vorausgeht. Diese Heraufabtastschritte verdoppeln die Bildgröße durch Einfügen von Pixeln mit dem Wert null zwischen jedem Paar benachbarte Pixel in der passenden Richtung. Damit die Pixel mit dem Wert null nicht den Mittelwert des Ausgangsbildes verkleinern, werden die resultierenden Pixelwerte nach jedem Filterungsschritt verdoppelt.
  • Infolge des Heraufabtastens ist das vom Wavelet-Rücktransformationsprozessor 50-m ausgegebene Bild X'm-1 doppelt so breit und doppelt so hoch wie jedes der drei in den Prozessor 50-m eingegebenen Bilder X'm, Yvm und Yhm. Die drei Eingangsbilder X'm, Yvm und Yhm haben alle die gleiche Größe.
  • Fig. 8 zeigt die vom Wavelet-Rücktransformationsprozessor 50-m durchgeführte Operation schematisch. Wie oben in der Zeichnung angezeigt, wird das vom vorhergehenden Prozessor 50-(m + 1) in der Kaskade empfangene teilweise rekonstruierte Bild X'm horizontal durch Interpolieren von Nullen heraufabgetastet (Verkleinern des mittleren Pixelwertes um einen Faktor zwei) und horizontal durch h* gefiltert; danach werden die resultierenden Pixelwerte verdoppelt (Wiederherstellen des richtigen Mittelwertes). Das Bild wird nun vertikal heraufabgetastet, wieder durch Interpolieren von Nullen, und vertikal durch h* gefiltert. Ähnlich wird das Hochfrequenzbild Yhm vertikal heraufabgetastet, vertikal durch f* gefiltert, pixelwertmäßig verdoppelt, horizontal heraufabgetastet und horizontal durch g* gefiltert. Das Hochfrequenzbild Yvm wird horizontal heraufabgetastet, horizontal durch f* gefiltert, pixelwertmäßig verdoppelt, vertikal heraufabgetastet und vertikal durch g* gefiltert.
  • Die drei resultierenden Bilder werden dann zueinander addiert, um ein Summenbild zu erzeugen, in dem alle Pixelwerte erneut verdoppelt werden, um der Wirkung der zweiten Heraufabtastschritte entgegenzuwirken. Das Endergebnis ist das teilweise rekonstruierte Bild X'm-1, das an den nächsten Wavelet-Prozessor 50-(m - 1) übertragen wird, oder das rekonstruierte Bild X'&sub0;, das an die Eingabe-/Ausgabevorrichtung 37 ausgegeben wird.
  • Die vom Wavelet-Rücktransformationsprozessor 50-m durchgeführte Operation kann durch die folgende Gleichung beschrieben werden. Heraufabtasten wird bewerkstelligt, indem die Werte von i, j, k und l durch zwei geteilt werden. Wenn einer der Werte i/2 + k/2 oder j/2 + l/2 keine ganze Zahl ist, werden die entsprechenden Werte von X'm, Yvm und Yhm als null gewählt.
  • Die zweite Ausführungsform hat die gleichen Vorteile wie die erste Ausführungsform, benötigt aber weniger Berechnungen, da die zu verarbeitende Bilddatenmenge auf jeder Wavelet-Skala um einen Faktor vier vermindert ist (um einen Faktor zwei horizontal und einen weiteren Faktor zwei vertikal). Die Rechenbelastung der zusätzlichen Heraufabtast- und Herunterabtastschritte und des Multiplizierens der Pixelwerte mit zwei ist daher gering.
  • Dritte Ausführungsform
  • Die dritte Ausführungsform weist Kanten diagonal und außerdem horizontal und vertikal nach. Um eine Zunahme der Menge an codierten Daten zu verhindern, werden einige der Herunterabtastschritte, die in der zweiten Ausführungsform im Decodierer durchgeführt wurden, in den Codierer verlagert.
  • Fig. 9 ist ein Blockdiagramm des Digitalbildcodierers der dritten Ausführungsform. Der zweidimensionale Glättungs- und Herunterabtastteil 41 ist der gleiche wie in der zweiten Ausführungsform. Das ursprüngliche Bild X&sub0; wird außerdem in einen eindimensionalen Glättungs- und Herunterabtastteil 51 eingegeben, der das ursprüngliche Bild X&sub0; zusammen mit einem vertikal geglätteten und herunterabgetasteten Bild Xh und einem horizontal geglätteten und herunterabgetasteten Bild Xv an einen Kantendetektor 52 ausgibt. Der Kantendetektor 52 gibt drei Kantenbilder Sh, Sv und Sc an den Codierteil 27 aus, der der gleiche wie in den ersten beiden Ausführungsformen ist.
  • Fig. 10 ist ein Flussdiagramm, das die im eindimensionalen Glättungs- und Herunterabtastteil 51 durchgeführten Prozesse zeigt. Das Bild Xv wird erzeugt, indem das ursprüngliche Bild X&sub0; mit dem Tiefpassfilter h in der Horizontalrichtung gefiltert wird, und das resultierende Bild wird dann herunterabgetastet, indem jedes zweite Pixel in der Horizontalrichtung entfernt wird. Das Bild Xv enthält dementsprechend nur halb so viele Daten wie das Bild X&sub0;.
  • Ähnlich wird das Bild Xh erzeugt, indem X&sub0; mit dem Tiefpassfilter h vertikal gefiltert wird, und das Ergebnis wird dann herunterabgetastet, indem jedes zweite Pixel in der Vertikalrichtung entfernt wird. Das Bild Xh enthält ebenfalls nur halb so viele Daten wie das Bild X&sub0;.
  • Die Bilder Xv und Xh können durch die folgenden Gleichungen beschrieben werden:
  • Xv(i, j) = X&sub0;(2i + k, j)·h(k)
  • Xh(i, j) = X&sub0;(i, 2j + k)·h(k)
  • Der Kantendetektor 52 weist Kanten durch das früher beschriebene Verfahren nach: indem Differenzen zwischen benachbarten Pixeln genommen werden und dann Differenzen zwischen diesen Differenzen genommen werden. Dieses Verfahren wird in den Richtungen durchgeführt, die nicht herunterabgetastet wurden. Dementsprechend werden Differenzen horizontal in dem vertikal herunterabgetasteten Bild Xh genommen, wobei ein horizontales Kantenbild Sh erzeugt wird. Ähnlich werden Differenzen vertikal in dem horizontal herunterabgetasteten Bild Xv genommen, wobei ein vertikales Kantenbild Sv erzeugt wird.
  • Kanten werden diagonal nachgewiesen, indem das ursprüngliche Bild X&sub0; sowohl in der Horizontal- als auch in der Vertikalrichtung verarbeitet wird. Die Operation Differenzen von Differenzen wird zuerst an X&sub0; durchgeführt, zum Beispiel in der Horizontalrichtung, wobei ein Zwischenbild erzeugt wird. Die Operation Differenzen von Differenzen wird als nächstes in der Vertikalrichtung an diesem Zwischenbild durchgeführt. Resultierende Pixel mit Absolutwerten gleich oder kleiner als ein Schwellwert T werden dann auf null gesetzt, und andere Werte werden geeignet quantisiert, wobei ein diagonales Kantenbild Sc erzeugt wird. Vor der Quantisierung hat Sc die folgenden Werte:
  • Sc(i, j) = X&sub0;(i - 1, j + 1) - 2X&sub0;(i - 1, j) + X&sub0;(i - 1, j - 1) - 2X&sub0;(i, j + 1) + 4X&sub0;(i, j) - 2X&sub0;(i, j - 1) + X&sub0;(i + 1, j + 1) - 2X&sub0;(i + 1, j) + X&sub0;(i + 1, j - 1)
  • Der Kantenbildcodierer 24 kann das diagonale Kantenbild Sc durch Verfahren codieren, die den für die vertikalen und horizontalen Kantenbilder Sv und Sh verwendeten Verfahren ähnlich sind. Sc hat die gleiche Größe wie das ursprüngliche Bild X&sub0;, während Sv und Sh nur halb so groß sind, so das die gesamte zu codierende Datenmenge die gleiche wie in den ersten beiden Ausführungsformen ist.
  • Fig. 11 ist ein Blockdiagramm des Digitalbilddecodierers in der dritten Ausführungsform. Der Decodierteil 29 ist der gleiche wie in den vorhergehenden Ausführungsformen, außer dass der Kantenbilddecodierer 31 einen Satz von drei Kantenbildern Sv&sub1;, Sh&sub1; und Sc&sub1; ausgibt, die den codierten Kantenbildern Sv, Sh und Sc entsprechen.
  • Diese Bilder werden in eine Kaskade von zweidimensionalen Glättungs- und Herunterabtastfiltern 53-m (m = 1 bis n - 1) eingegeben. Diese sind mit den zweidimensionalen Glättungs- und Herunterabtastfiltern 48-m in der zweiten Ausführungsform identisch, außer dass jedes Filter drei getrennte Kantenbilder anstelle von zweien glättet und herunterabtastet, wobei vertikale, horizontale und diagonale Kantenbilder Svm+1, Shm+1 und Scm+1 erzeugt werden. Jedes dieser Kantenbilder Svm+1, Shm+1 und Scm+1 ist nur halb so hoch und halb so breit wie das entsprechende Bild Svm, Shm und Scm in dem vorhergehenden Satz.
  • Diese Bilder werden durch entsprechende Kantensynthesegeneratoren 54-m verarbeitet, wie nachfolgend erläutert, um Sätze von vertikalen, horizontalen und diagonalen Hochfrequenzbildern Yvm, Yhm und Ycm zu erzeugen. Diese werden einem Wavelet- Rücktransformationsprozessor 55 zugeführt, der Kaskaden-Wavelet-Rücktransformationsprozessoren 55-m (m = 1 bis n) enthält, die rekonstruierte oder teilweise rekonstruierte Bilder X'm-1 ausgeben.
  • Der Kantensynthesegenerator 54-m arbeitet, wie in Fig. 12 gezeigt, unter Verwendung des gleichen Kantensynthesefilters e wie in der zweiten Ausführungsform. Das vertikale Kantenbild Svm wird vertikal durch e gefiltert und dann herunterabgetastet, indem jedes zweite Pixel in der Vertikalrichtung entfernt wird, um ein vertikales Hochfrequenzbild Yvm zu erzeugen. Ähnlich wird das horizontale Kantenbild Shm horizontal durch e gefiltert und dann horizontal herunterabgetastet, um ein horizontales Hochfrequenzbild Yhm zu erzeugen. Das diagonale Kantenbild Scm wird vertikal durch e gefiltert, in der Vertikalrichtung herunterabgetastet, horizontal durch e gefiltert und dann in der Horizontalrichtung herunterabgetastet, um ein diagonales Hochfrequenzbild Ycm zu erzeugen.
  • Infolge der Herunterabtast-Kombination im eindimensionalen Glättungs- und Herunterabtastteil 51 im Codierer und im Kantensynthesegenerator 54-m im Decodierer haben die drei Hochfrequenzbilder Yvm, Yhm und Ycm alle die gleiche Größe. Jedes wurde m mal sowohl in der Horizontal- als auch in der Vertikalrichtung herunterabgetastet, wobei die Pixelzahl um einen Gesamtfaktor von 4m vermindert wird.
  • Der Wavelet-Rücktransformationsprozessor 55-m arbeitet an den Bildern X'm, Yvm, Yhm und Ycm unter Verwendung des gleichen komplementären Paares von Hochpass- und Tiefpassfiltern g* und h* wie in der zweiten Ausführungsform, verwendet aber nicht das Vervollständigungsfilter f*. Wie in der zweiten Ausführungsform geht jedem Filterungsschritt ein Heraufabtastschritt vorher und folgt ihm eine ausgleichende Verdopplung der Pixelwerte. Das Heraufabtasten wird durch Einfügen von Pixeln mit dem Wert null durchgeführt.
  • Der Wavelet-Rücktransformationsprozessor 55-m filtert jedes der vier Eingangsbilder horizontal und vertikal und addiert die vier resultierenden Bilder zusammen, um das Ausgangsbild X'm-1 zu erhalten. Das Bild X'm wird horizontal und vertikal durch h* gefiltert; das Bild Yhm wird horizontal durch g* und vertikal durch h* gefiltert; das Bild Yvm wird 'horizontal durch h* und vertikal durch g* gefiltert; und das Bild Ycm wird horizontal und vertikal durch g* gefiltert. Zu Gunsten der Rechenleistung werden die Ergebnis der vier horizontalen Filterungsoperationen paarweise addiert, so dass nur zwei vertikale Filterungsoperationen durchgeführt werden müssen.
  • Die vom Wavelet-Rücktransformationsprozessor 55-m durchgeführte Operation kann auch durch die folgende Gleichung beschrieben werden. Wie vorher gilt, wenn einer der Werte i/2 + k/2 oder j/2 + l/2 keine ganze Zahl ist, sind die entsprechenden Werte von X'm, Yvm, Yhm und Ycm gleich null.
  • Die dritte Ausführungsform hat die gleichen Vorteile wie die zweite und bietet aufgrund des Nachweises von diagonalen Kanten verbesserte Wiedergabe von hochfrequenten Details.
  • Vierte Ausführungsform
  • Die vierte Ausführungsform ist der dritten Ausführungsform ähnlich und unterscheidet sich nur im Betrieb des Kantendetektors 52. Blockdiagramme werden weggelassen.
  • Der Kantendetektor 52 der vierten Ausführungsform beginnt damit, durch die in der dritten Ausführungsform beschriebenen Verfahren unter Verwendung eines Schwellwertes T horizontale, vertikale und diagonale Kantenschärfe nachzuweisen. Als Nächstes konstruiert er dicker gemachte Kanten, indem benachbarte Punkte mit Schärfewerten, die eine untere Schwelle U übersteigen, aufgenommen werden. Schließlich beschneidet er die Kanten, so dass jede Kante eine gleichförmige Dicke hat (obgleich manche Kanten dicker sein können als andere). Dieser Prozess wird nachfolgend für eine Kante im horizontalen Kantenbild Sh erläutert.
  • Fig. 14 zeigt einen Teil eines typischen horizontalen Kantenbildes Sh, wobei Schwarz verwendet wird, um Pixel mit Schärfewerten zu bezeichnen, die T übersteigen, und Schraffierung, um Pixel zu bezeichnen, die U übersteigen, aber nicht T übersteigen. "Übersteigen" bedeutet hier, einen positiven Kantenschärfewert zu haben, der T (oder U) übersteigt. Pixel mit negativen Schärfewerten werden getrennt verarbeitet.
  • Kantenpunkte im horizontalen Kantenbild Sh sind tendenziell in Ketten mit einer allgemein senkrechten Orientierung organisiert. Fig. 14 zeigt so eine Kette, die allgemein von links oben nach rechts unten läuft. Diese Kante hat jedoch eine unregelmäßige Form, und wenn sie mittels der Schwelle T nachgewiesen wird, wird die Kante in zwei Teile zerstückelt. Solche Unregelmäßigkeiten und Zerstückelungen (Fragmentierungen) beeinträchtigen die Leistung, mit der das Kantenbild codiert werden kann, stark.
  • Fig. 15 zeigt die dicker gemachte Version dieser Kante. Der Kantendetektor 52 konstruiert Fig. 15 durch das folgende Verfahren aus Fig. 14.
  • Beginnend mit der oberen linken Ecke, sucht der Kantendetektor nach einem Pixel im horizontalen Kantenbild Sh in Fig. 14, das die Schwelle T übersteigt. Wenn das erste solche Pixel gefunden ist, wird es als das erste Pixel der ersten Schicht einer Kante in das dicker gemachte Kantenbild in Fig. 15 gesetzt. Diese erste Schicht wird dann nach links und rechts ausgedehnt, indem irgendwelche benachbarten Pixel aufgenommen werden, die das gleiche Vorzeichen haben und die Schwelle U übersteigen. Die Ausdehnung setzt sich in jeder Richtung so weit fort, wie sich benachbarte Pixel fortsetzen. In den Zeichnungen wird zuerst das Pixel 56 gefunden, und die Pixel 57 und 58 werden hinzuaddiert, um die erste Schicht zu vervollständigen. Gäbe es unmittelbar links vom Pixel 57 oder rechts vom Pixel 58 weitere Pixel, die die Schwelle U übersteigen, so würden sie ebenfalls eingefügt.
  • Als Nächstes, wenn es unmittelbar unter der bisher unteren Schicht der Kante irgendwelche Pixel gibt, die die Schwelle T übersteigen, werden sie hinzugefügt, um eine neue Schicht der Kante zu beginnen. Die neue Schicht wird dann nach links und rechts ausgedehnt, indem benachbarte Pixel hinzugefügt werden, die die Schwelle U übersteigen. Bei diesem Ausdehnungsprozess werden alle benachbarten Pixel eingefügt, die die Schwelle T übersteigen. Pixel, die die Schwelle U übersteigen, aber nicht die Schwelle T übersteigen, werden nur dann hinzugefügt, wenn sie um nicht mehr als einen bestimmten Grenz-Ausdehnungsabstand jenseits der Enden der vorhergehenden Schicht angeordnet sind. In diesem Beispiel beträgt der Grenz- Ausdehnungsabstand ein Pixel. Somit wird das Pixel 59 hinzugefügt, da es sich nur um ein Pixel am Pixel 57 vorbei erstreckt, jedoch würden die Pixel links vom Pixel 59 dieser Schicht nicht hinzugefügt, wenn sie die Schwelle T nicht übersteigen.
  • Der Kantendetektor macht auf diese Weise weiter, die dicker gemachte Kante nach unten zu auszudehnen, indem er neue Schichten hinzufügt, so lange er unmittelbar unter der bisher unteren Schicht ein Pixel finden kann, das die Schwelle T übersteigt, und jede Schicht horizontal zu vergrößern, um benachbarte Pixel, die die Schwelle T übersteigen, und außerdem Pixel, die die Schwelle U übersteigen, bis zum Grenz- Ausdehnungsabstand einzufügen. In diesem Beispiel würde das Pixel 60 nicht zu der dicker gemachten Kante hinzuaddiert, da es sich um zwei Pixel über die vorhergehende Schicht hinaus erstrecken würde und die Ausdehnungsgrenze ein Pixel ist.
  • Wenn unter der unteren Schicht keine Pixel gefunden werden können, die die Schwelle T übersteigen, wird die dicker gemachte Kante als vollständig angesehen. Der Kantendetektor sucht dann nach einem weiteren Pixel, das die Schwelle T im Absolutwert übersteigt, um eine neue dicker gemachte Kante zu beginnen, und macht diese Kante auf die gleiche Weise dicker. Das gesamte Verfahren wird wiederholt, bis keine Pixel mehr gefunden werden können, die die Schwelle T übersteigen. Danach folgt ein ähnliches Verfahren, um Pixel zu verarbeiten, die negative Schärfewerte haben, die -T und -U übersteigen.
  • Obwohl der Grenz-Ausdehnungsabstand in dem obigen Beispiel ein Pixel war, können andere Grenz-Ausdehnungsabstände wie z. B. null, zwei oder drei Pixel verwendet werden. Der bevorzugte Grenz-Ausdehnungsabstand hängt zum Teil von den Schwellwerten T und U ab.
  • Fig. 16 zeigt die beschnittene Version der dicker gemachten Kante in Fig. 15. Die beschnittene Kante wird konstruiert, indem benachbarte Schichten in der dicker gemachten Kante verglichen werden und die längere Schicht beschnitten wird, so dass sie zu der Länge der kürzeren Schicht passt. Somit wird das Pixel 59 beschnitten, um die Länge seiner Schicht auf drei Pixel zu vermindern, was zu der Länge der Schicht darüber passt. Dieses Beschneidungsverfahren wird von der Oberseite der Kante bis zur Unterseite durchgeführt und dann wiederholt, bis alle Schichten in der Kante auf die gleiche Länge beschnitten worden sind.
  • Wenn sich die längere Schicht nur an einem Ende über die kürzere Schicht hinaus ausdehnt, wird das sich ausdehnende Ende beschnitten. Wenn sich die längere Schicht an beiden Enden über die kürzere Schicht hinaus ausdehnt, untersucht der Kantendetektor 52 die vorhergehende Schicht und beschneidet derart, dass eine konstante Verschiebung von einer Schicht zur nächsten aufrechterhalten wird. Zum Beispiel in Fig. 16 beschneidet der Kantendetektor 52 nach Beschneiden der Schichten 61 und 62 die Schicht 63, so dass sie um ein Pixel zur rechten Seite der Schicht 62 verschoben ist, da die Schicht 62 ähnlich um ein Pixel zur rechten Seite der Schicht 61 verschoben ist.
  • Die beschnittene Kante in Fig. 16 ist zusammenhängend und hat eine regelmäßigere Form als die ursprüngliche Kante in Fig. 14. Diese Eigenschaften ermöglichen es, die Kante in Fig. 16 wirkungsvoller zu codieren als die Kante in Fig. 14, selbst wenn sie mehr Pixel enthält. Zum Beispiel bei Kettencodierung, nachdem die Position und Länge der ersten Schicht spezifiziert worden sind, kann die Position des Restes der Kante genau spezifiziert werden, indem die Verschiebung jeder Schicht zu der vorhergehenden Schicht angegeben wird. Bei der Quantisierung der Kantenschärfewerte können Pixel, die die Schwelle U, aber nicht die Schwefle T übersteigen, auf null quantisiert werden, aber dann im Digitalbilddecodierer auf einen Wert ungleich null entquantisiert werden.
  • Im vertikalen Kantenbild Sv werden durch ein ähnliches Verfahren Kanten dicker gemacht und beschnitten, außer dass das Dicker-Machen und Beschneiden vertikal durchgeführt wird und der Kantendetektor 52 von links nach rechts statt von oben nach unten arbeitet.
  • Kanten im diagonalen Kantenbild Sc können entweder horizontal oder vertikal verarbeitet werden. Die Wahl hängt von der Art und Weise ab, in der das diagonale Kantenbild codiert wird. Wird zum Beispiel vertikale Kettencodierung verwendet, ist das Dicker- Machen und Beschneiden horizontal durchzuführen.
  • Das Dicker-Machen und Beschneiden kann auch dem Kantennachweisprozess in den Ausführungsformen eins und zwei und in irgendeiner der folgenden Ausführungsformen hinzugefügt werden. Die erfundene Technik zum Dicker-Machen und Beschneiden ist überdies nützlich, um bei Bildcodierung und Bildverarbeitung im Allgemeinen Kanten regelmäßig zu machen, und es ist nicht auf Kanten beschränkt, die durch das Verfahren Differenzen von Differenzen nachgewiesen werden.
  • Fünfte Ausführungsform
  • Die fünfte Ausführungsform ist der zweiten Ausführungsform ähnlich, aber dafür eingerichtet, Bewegtbilder mit aufeinander folgenden Einzelbildern zu verarbeiten.
  • Unter Bezugnahme auf Fig. 17 enthält der Digitalbildcodierer der fünften Ausführungsform den gleichen zweidimensionalen Glättungs- und Herunterabtastteil 41 und Kantendetektor 21 wie in der zweiten Ausführungsform, aber einen anderen Codierteil 65. Der Codierteil 65 enthält ein Paar Bewegungsschätzer 66 und 67, einen Bewegungsvektorcodierer 68, ein Paar Bewegungskompensatoren 69 und 70 und ein Paar Speicher 71 und 72. Außerdem enthält er den gleichen Kantenbildcodierer 24 und Reduktionsbildcodierer 25 wie in den Digitalbildcodierern der vorhergehenden Ausführungsformen und den gleichen Kantenbilddecodierer 31 und Reduktionsbilddecodierer 32 wie in den Digitalbildcodierern der vorhergehenden Ausführungsformen.
  • Der Bewegungsschätzer 66 empfängt das Paar Kantenbilder Sh und Sv vom Kantendetektor 21. Um die Zeichnung zu vereinfachen, ist dieses Paar Kantenbilder mit dem einzigen Buchstaben S bezeichnet. Der Bewegungsschätzer 66 empfängt außerdem ein Paar vorhergehende Kantenbilder S" (ein vorhergehendes horizontales Kantenbild und ein vorhergehendes vertikales Kantenbild) vom Speicher 71. Der Bewegungsschätzer 66 gibt Kantenbewegungsvektoren Ms und ein Paar horizontale und vertikale Kantendifferenzbilder aus, die der Einfachheit halber mit dem einzigen Symbol Ds bezeichnet sind.
  • Der Bewegungsschätzer 67 empfängt das Reduktionsbild Xn vom letzten Glättungsfilter 42-n und ein vorhergehendes Reduktionsbild X"n vom Speicher 72 und gibt Reduktionsbewegungsvektoren Mr und ein Reduktionsdifferenzbild Dr aus. Der Bewegungsvektorcodierer 68 codiert die Bewegungsvektoren Ms und Mr und gibt Bewegungsinformation. Cm aus.
  • Der Kantenbildcodierer 24 codiert die Kantendifferenzbilder Ds und gibt Kantenbildinformation Cs aus. Diese Information wird vom Kantenbilddecodierer 31 decodiert, um ein Paar decodierte Kantendifferenzbilder zu erzeugen, die in der Zeichnung mit dem einzigen Symbol D's bezeichnet sind. Der Bewegungskompensator 69 empfängt dieses Paar Bilder D's, das vorhergehende Paar Bilder S" und die Bewegungsvektoren Ms und erzeugt ein Paar decodierte Kantenbilder S&sub1;, die er im Speicher 71 speichert.
  • Ähnlich codiert der Reduktionsbildcodierer 25 das Reduktionsdifferenzbild Dr und gibt Reduktionsbildinformation Cr aus. Der Reduktionsbilddecodierer 32 decodiert Cr und gibt ein decodiertes Reduktionsdifferenzbild D'r aus. Der Bewegungskompensator 70 empfängt dieses Bild D'r, das vorhergehende Reduktionsbild X"n und die Bewegungsvektoren Mr und erzeugt ein decodiertes Reduktionsbild X'n, das er im Speicher 72 speichert.
  • Der Multiplexer 73 multiplext die Kantenbildinformation Cs, Bewegungsinformation Cm und Reduktionsbildinformation Cr zur Ausgabe als ein codiertes Bild C.
  • Unter Bezugnahme auf Fig. 18 enthält der Digitalbilddecodierer der fünften Ausführungsform einen Decodierteil 75, der einen Demultiplexer 76, einen Bewegungsvektordecodierer 77 und Decodierer 31 und 32 enthält, Bewegungskompensatoren 69 und 70 und Speicher 71 und 72, die mit denen im Digitalbildcodierer in Fig. 17 identisch sind. Der Rest des Digitalbilddecodierers in Fig. 18 ist der gleiche wie in der zweiten Ausführungsform, mit Glättungs- und Herunterabtastfiltern 48-m (m = 1 bis n - 1), Kantensynthesegeneratoren 49-m (m = 1 bis n) und einem Wavelet-Rücktransformationsprozessor 50-m.
  • Der Demultiplexer 76 empfängt das codierte Bild von der Eingabe-/Ausgabevorrichtung 28 und demultiplext es in Kantenbildinformation Cs, Bewegungsinformation Cm und Reduktionsbildinformation Cr. Der Bewegungsvektordecodierer 77 decodiert Cm, um decodierte Kantenbewegungsvektoren M's und Reduktionsbewegungsvektoren M'r zu erhalten. Andere Symbole in Fig. 18 sind so, wie schon in Fig. 6 und 17 erläutert, wobei Sm das Paar Kantenbilder Shm und Svm darstellt und Ym das Paar Hochfrequenzbilder Yhm und Yvm darstellt.
  • Als Nächstes wird der Betrieb der fünften Ausführungsform beschrieben. Die Beschreibung wird hauptsächlich auf den Codierteil 65 des Codierers beschränkt.
  • Unter nochmaliger Bezugnahme auf Fig. 17 schätzt der Bewegungsschätzer 67 eine Bewegung im Reduktionsbild Xn zum Beispiel durch das bekannte Blockanpassungsverfahren. Dieses Verfahren umfasst, einen Block von Pixeln im Bild Xn mit Blöcken zu vergleichen, die um k Pixel horizontal und I Pixel vertikal zu diesem Block im vorhergehenden Bild X"n im Speicher 72 verschoben sind, und den Vektor (k, l) auszuwählen, der die beste Übereinstimmung ergibt. Diese Vektoren (k, l) werden als Bewegungsvektoren Mr ausgegeben, während die Differenzen zwischen den Pixelwerten in Xn und den Pixelwerten in X"n in Positionen, die durch diese Bewegungsvektoren (k, l) verschoben sind, als das Reduktionsdifferenzbild Dr ausgegeben werden. Somit ist das Reduktionsdifferenzbild Dr die Differenz zwischen Xn und X"n über die durch die Bewegungsvektoren Mr dargestellte Bewegung hinaus.
  • Der Bewegungsschätzer 66 führt einen ähnlichen Prozess getrennt an den horizontalen und vertikalen Kantenbildern durch, um die Bewegungsvektoren Ms und das mit Ds bezeichnete Paar Kantendifferenzbilder zu erhalten. Der Bewegungsvektorcodierer 68 codiert die Bewegungsvektoren Ms durch ein verlustloses Codierverfahren wie z. B. ein Verfahren zum Codieren mit variabler Länge.
  • Die Codierer 24 und 25 codieren die Differenzbilder Ds und Dr zum Beispiel durch die gleichen Verfahren wie in den vorhergehenden Ausführungsformen verwendet. Die Decodierer 31 und 32 verwenden Verfahren, die zu diesen Verfahren umgekehrt sind, um die decodierten Differenzbilder D'r und D's zu gewinnen.
  • Der Bewegungskompensator 70 addiert das decodierte Reduktionsdifferenzbild D'r in Übereinstimmung mit den Bewegungsvektoren Mr zu dem vorhergehenden Reduktionsbild X"n und speichert das resultierende Bild X'n im Speicher 72. "In Übereinstimmung mit den Bewegungsvektoren Mr" bedeutet, dass jeder Pixelwert in D'r an einem durch einen Bewegungsvektor (k, l) in Mr verschobenen Ort zu einem entsprechenden Pixelwert im vorhergehenden Reduktionsbild X"n addiert wird. Das Verfahren, durch das X'n aus D'r erhalten Viril, ist umgekehrt zu dem Verfahren, durch das Dr aus Xn erhalten wird, und die Operationen des Codierers 25 und Decodierers 32 sind umgekehrt zueinander, so dass das Bild X'n im wesentlichen mit dem Bild Xn identisch ist.
  • Ähnlich addiert der Bewegungskompensator 69 die zwei decodierten Kantendifferenzbilder in Übereinstimmung mit den Bewegungsvektoren Ms zu den entsprechenden vorhergehenden Kantendifferenzbildern und speichert das resultierende Paar decodierte Kantenbilder S&sub1; im Speicher 71. Das Paar Kantenbilder S&sub1; ist im wesentlichen mit dem vom Kantendetektor 21 ausgegebenen Paar Kantenbilder S identisch.
  • Der Speicher 72 hat Platz zum Speichern von mindestens zwei vollständigen Reduktionsbildern: dem vorhergehenden Bild X"n, das dem Bewegungsschätzer 67 und Bewegungskompensator 70 zugeführt wird, und dem neuen Bild X'n, das vom Bewegungskompensator 70 gespeichert wird. Am Ende jedes Einzelbildes wird das vorhergehende Bild X"n ausrangiert, wobei das neue Bild X'n zurückbleibt, das als das vorhergehende Bild im nächsten Einzelbild zu verwenden ist. Der Speicher 71 speichert Kantenbilder auf eine ähnliche Weise.
  • Von Zeit zu Zeit ignorieren die Bewegungsschätzer 66 und 67 möglicherweise die vorhergehenden Bilder S" und X"n in den Speichern 71 und 72 und führen die Kantenbilder S und das Reduktionsbild Xn direkt den Codierern 24 und 25 zu, statt Differenzbilder zuzuführen. Die Bewegungsinformation Cm besteht in diesem Fall in einer Meldung, die anzeigt, dass das aktuelle Einzelbild keinen Bewegungsausgleich benötigt. Die Bewegungskompensatoren 69 und 70 können dann einfach die von den Decodierern 31 und 32 empfangenen Bilder ausgeben.
  • Die Bewegungskompensatoren 69 und 70 und die Speicher 71 und 72 im Digitalbilddecodierer arbeiten auf die gleiche Weise wie die Bewegungskompensatoren 69 und 70 und die Speicher 71 und 72 im Digitalbildcodierer, wobei sie die vom Bewegungsvektordecodierer 77 zugeführten decodierten Bewegungsvektoren M's und M'r verwenden. Da ein verlustloses Codierschema für die Bewegungsvektoren verwendet wird, stimmen M's und M'r genau mit Ms und Mr überein, und die in Fig. 18 mit S&sub1; und X'n bezeichneten Bilder stimmen genau mit den in Fig. 17 mit S&sub1; und X'n bezeichneten Bildern überein. Der weitere Betrieb des Digitalbilddecodierers ist so, wie in der zweiten Ausführungsform beschrieben.
  • Durch Beseitigen von zeitweiser Redundanz kann der Bewegungsausgleich die Codierleistung von Bewegtbildern drastisch erhöhen, jedoch benötigt Blockanpassung konventionell beträchtliche Berechnungen. Ein Vorteil der fünften Ausführungsform ist, dass der größte Teil der Blockanpassung in den Kantenbildern durchgeführt wird, die einer Schwellwertoperation unterzogen wurden und tendenziell hauptsächlich aus Pixeln mit dem Wert null bestehen. Die große Zahl von Pixeln mit dem Wert null beschleunigt den Blockanpassungsprozess stark. Weitere Geschwindigkeitszuwächse sind möglich, wenn man Bewegungsvektoren verwendet, die für eines der zwei Kantenbilder berechnet sind, um Bewegungsvektoren in dem anderen Kantenbild finden zu helfen.
  • Ein weiterer Vorteil ist, dass die Bewegungsschätzer und -kompensatoren im Digitalbildcodierer und Digitalbilddecodierer identische vorhergehende Bilder S" und X"n verwenden. Dies verhindert die Aufhäufung von Quantisierungsfehlern und anderen Bildfehlern als Folge der Kompressionscodierung in den Codierern 24 und 25 und stellt Konsistenz zwischen Bewegungsschätzung im Digitalbildcodierer und Bewegungsausgleich im Digitalbilddecodierer sicher.
  • Weitere Vorteile der fünften Ausführungsform sind so, wie in der zweiten Ausführungsform beschrieben. Die fünfte Ausführungsform kann bei Video-Telekonferenzen und einer großen Vielfalt von anderen Multimedia-Anwendungen verwendet werden.
  • Sechste Ausführungsform
  • Die sechste Ausführungsform ist der fünften Ausführungsform ähnlich, mit weiteren Vorkehrungen zum Beschleunigen der Berechnung von Bewegungsvektoren.
  • Unter Bezugnahme auf Fig. 19 ist der Codierteil 78 des Digitalbildcodierers in der sechsten Ausführungsform dem Codierteil 65 in der fünften Ausführungsform ähnlich, enthält aber eine Zweirichtungs-Verbindungsleitung 79 zwischen den Bewegungsschätzern 66 und 67. Dies ermöglicht es dem Bewegungsschätzer 67, die vom Bewegungsschätzer 66 gefundenen Kantenbewegungsvektoren Ms zu empfangen, sie maßstabsgerecht auf die Größe des niederfreguenten Reduktionsbildes Xn zu verkleinern und die Suche nach Bewegungsvektoren im Bild Xn auf Vektoren nahe bei den verkleinerten Kantenbewegungsvektoren zu beschränken. Im Extremfall kann die Suche völlständig beseitigt werden: die Reduktionsbewegungsvektoren Mr können direkt aus den Kantenbewegungsvektoren Ms berechnet werden.
  • Alternativ kann der Bewegungsschätzer 66 die durch Blockanpassung im niederfrequenten Reduktionsbild Xn gefundenen Bewegungsvektoren Mr empfangen, sie maßstabsgerecht auf die Größe der Kantenbilder Sh und Sv vergrößern und die Suche nach Bewegungsvektoren in Sh und Sv auf Vektoren nahe bei den vergrößerten Vektoren beschränken. Dieses Schema ist besonders wirksam beim Nachweis von großen, schnellen Bewegungen.
  • Außer dieser zusätzlichen Verbindungsleitung 79 hat die sechste Ausführungsform den gleichen Aufbau wie die fünfte Ausführungsform und arbeitet auf die gleiche Weise, so dass eine weitere Beschreibung ausgespart wird. Durch Einengen der Suche nach Bewegungsvektoren ermöglicht es die sechste Ausführungsform, Einzelbilder mit einer schnelleren Rate als in der fünften Ausführungsform zu codieren.
  • Siebte Ausführungsform
  • Die siebte Ausführungsform vereinigt Merkmale der Ausführungsformen drei und fünf durch Nachweis von Kanten horizontal, vertikal und diagonal sowie durch Verwendung von Bewegungsausgleich.
  • Unter Bezugnahme auf Fig. 20 enthält der Digitalbildcodierer der siebten Ausführungsform den gleichen zweidimensionalen Glättungs- und Herunterabtastteil 41, eindimensionalen Glättungs- und Herunterabtastteil 51 und Kantendetektor 52 wie in der dritten Ausführungsform (Fig. 8) und den gleichen Codierteil 65 wie in der fünften Ausführungsform (Fig. 17). Das Symbol S in Fig. 20 bezeichnet den Satz von drei Kantenbildern Sv, Sh und Sc in Fig. 8. Ähnlich bezeichnet jedes der Symbole S&sub1;, S", Ds und D's einen Satz von drei Kantenbildern.
  • Unter Bezugnahme auf Fig. 21 enthält der Digitalbilddecodierer der siebten Ausführungsform den gleichen Decodierteil 75 wie die fünfte Ausführungsform (Fig. 17) und die gleichen zweidimensionalen Glättungs- und Herunterabtastfilter 53-1 bis 53-(n - 1), Kantensynthesegeneratoren 54-1 bis 54-n und Wavelet-Rücktransformationsprozessor 55 wie in der dritten Ausführungsform (Fig. 11).
  • Die siebte Ausführungsform arbeitet wie in den Ausführungsformen drei und fünf erläutert und hat ähnliche Wirkungen, so dass eine weitere Beschreibung ausgespart wird.
  • Achte Ausführungsform
  • Die achte Ausführungsform vereinigt Merkmale der Ausführungsformen sechs und sieben.
  • Unter Bezugnahme auf Fig. 22 hat der Digitalbildcodierer der sechsten Ausführungsform die gleiche Struktur wie in der siebten Ausführungsform (Fig. 20), mit Ausnahme einer zusätzlichen Zweirichtungs-Verbindungsleitung 79 zwischen den Bewegungsschätzern 66 und 67, wie in der sechsten Ausführungsform (Fig. 19). Die achte Ausführungsform arbeitet wie in den Ausführungsformen sechs und sieben erläutert, so dass eine weitere Beschreibung ausgespart wird.
  • Neunte Ausführungsform
  • Die neunte Ausführungsform führt die Bewegungsschätzung vor dem Kantennachweis, Glätten und Herunterabtasten durch. Um Konsistenz zwischen dem Codierer und dem Decodierer aufrechtzuerhalten, führt der Codierer im wesentlichen alle Prozesse durch, die im Decodierer durchgeführt werden, einschließlich Kantensynthese und der Wavelet-Rücktransformation
  • Unter Bezugnahme auf Fig. 23 werden die am Eingangsanschluss 10 eingegebenen Ursprungsbild-Einzelbilder einem Bewegungsschätzer 80 zugeführt, der wie oben beschrieben eine Bewegungsschätzung durchführt und ein Differenzbild D&sub0; und Bewegungsvektoren M ausgibt. Die Bewegungsvektoren M werden wie in den Ausführungsformen fünf bis acht durch einen Bewegungsvektorcodierer 68 codiert. Das Differenzbild D&sub0; wird einem Kantendetektor 21 und einem zweidimensionalen Glättungs- und Herunterabtastteil 41 anstelle des ursprünglichen Bildes X&sub0; zugeführt und auf die gleiche Weise verarbeitet, wie das ursprüngliche Bild X&sub0; in der zweiten Ausführungsform verarbeitet wurde. Das resultierende Paar Kantenbilder wird wieder mit dem Symbol S bezeichnet, während das aus der Glättung und Herunterabtastung von D&sub0; resultierende Reduktionsbild mit Dn bezeichnet wird. Diese Bilder S und Dn werden durch jeweilige Codierer 24 und 25 codiert, um codierte Bildinformation Cs und Cr zu erzeugen, die wie in den vorhergehenden Ausführungsformen durch einen Multiplexer 73 mit der Bewegungsinformation Cm kombiniert wird.
  • Die codierte Information Cs und Cr wird außerdem durch Decodierer 31 und 32 decodiert, um decodierte Bilder S&sub1; und D'n zu erzeugen. Diese werden zweidimensionalen Glättungs- und Herunterabtastfiltern 48-m (m = 1 bis n - 1), Kantensynthesegeneratoren 49-m (m = 1 bis n) und einem Wavelet-Rücktransformationsprozessor 50 zugeführt, die mit den entsprechenden Elementen im Digitalbilddecodierer der in Fig. 6 gezeigten zweiten Ausführungsform identisch sind. Der Wavelet-Rücktransformationsprozessor 50 gibt ein rekonstruiertes Differenzbild D'&sub0; an einen Bewegungskompensator 81 aus.
  • Unter Verwendung dieses Bildes D'&sub0;, der vom Bewegungsschätzer 80 ausgegebenen Bewegungsvektoren m und eines in einem Speicher 82 gespeicherten vorhergehenden Bildes X"&sub0; erzeugt der Bewegungskompensator 81 ein neues rekonstruiertes Bild X'&sub0;, das im Speicher 82 gespeichert wird. Das vorhergehende Bild X"&sub0; wurde ebenfalls dem Bewegungsschätzer 80 zur Verwendung bei der Bewegungsschätzung zugeführt. Das rekonstruierte Bild X'&sub0; wird dann das vorhergehende Bild im nächsten Einzelbild.
  • Der Bewegungsschätzer 80, Bewegungskompensator 81 und Speicher 82 in Fig. 23 arbeiten ähnlich wie der Bewegungsschätzer 67, Bewegungskompensator 70 und Speicher 72 in der fünften oder sechsten Ausführungsform (Fig. 17 oder 20), obwohl sie an dem ursprünglichen Bild X&sub0; anstelle des Reduktionsbildes Xn arbeiten. Die Wellenrückformprozessoren 50-m in Fig. 23 arbeiten wie die Wellenrückformprozessoren 50-m in der zweiten Ausführungsform (Fig. 6), obwohl sie eine Reihe von teilweise rekonstruierten Differenzbildern D'm anstelle einer Reihe von teilweise rekonstruierten Bildern X'm (m = 1 bis n) verarbeiten, und geben ein vollständig rekonstruiertes Differenzbild D'&sub0; anstelle eines vollständig rekonstruierten Bildes X'&sub0; aus.
  • Der Codierteil 83 in der neunten Ausführungsform enthält den Bewegungsvektorcodierer 68, Kantenbildeodierer 24, ReduKtiortsbildcodierer 25 und Multiplexer 73.
  • Unter Bezugnahme auf Fig. 24 enthält der Digitalbilddecodierer der neunten Ausführungsform einen Decodierteil 84 mit einem Demultiplexer 76 und Bewegungsvektordecodierer 77 ähnlich denen in den Ausführungsformen fünf bis acht. Die anderen Elemente in Fig. 24 sind den Elementen mit den gleichen Bezugszeichen in Fig. 23 ähnlich. Der Bewegungskompensator 81 empfängt ein vollständig rekonstruiertes Differenzbild D'&sub0; vom Wavelet-Rücktransformationsprozessor 50 und gibt ein vollständig rekonstruiertes Bild X'&sub0; an die Eingabe-/Ausgabevorrichtung 37 aus.
  • Wie in den Ausführungsformen fünf bis acht arbeiten der Digitalbildcodierer in Fig. 23 und Digitalbilddecodierer in Fig. 24 mit identischen vorhergehenden Bildern X"&sub0;, wodurch Konsistenz zwischen Bewegungsschätzung im Codierer und Decodierer aufrechterhalten wird. Die Bewegungsschätzung vor dem Kantennachweis durchzuführen, kann zu höheren Kompressionsverhältnissen führen als in den Ausführungsformen fünf bis acht, da nur ein Satz Bewegungsvektoren codiert werden muss.
  • Zehnte Ausführungsform
  • Die zehnte Ausführungsform vereinigt Merkmale der Ausführungsformen drei und neun. Wie in der dritten Ausführungsform werden drei Kantenbilder nachgewiesen. Dem Kantennachweis, Glätten und Herunterabtasten geht die Bewegungsschätzung vorher, und es folgen alle im Digitalbilddecodierer durchgeführten Prozesse, wie in der neunten Ausführungsform.
  • Unter Bezugnahme auf Fig. 25 enthält der Digitalbildcodierer der zehnten Ausführungsform den Bewegungsschätzer 80, Bewegungskompensator 81, Speicher 82 und Codierteil 83 der neunten Ausführungsform (Fig. 23), und andere Elemente wie in der dritten Ausführungsform (Fig. 9 und 11). Unter Bezugnahme auf Fig. 26 enthält der Digitalbilddecodierer den Decodierteil 84, Bewegungskompensator 81 und Speicher 82 der neunten Ausführungsform (Fig. 24) und andere Elemente wie in der dritten Ausführungsform (Fig. 11).
  • Die zehnte Ausführungsform arbeitet wie in den Ausführungsformen drei und neun erläutert und hat ähnliche Vorteile. Eine detaillierte Beschreibung viril ausgespart.
  • Elfte Ausführungsform
  • Die elfte Ausführungsform ist ein Digitalbildcodierer/-decodierer (Codec), der die Funktionen des Digitalbildcodierers und -decodierers der neunten Ausführungsform vereinigt. Die elfte Ausführungsform bildet somit eine Vorrichtung, die entweder in einem Codierzustand oder in einem Decodierzustand arbeiten kann.
  • Unter Bezugnahme auf Fig. 27 fügt die elfte Ausführungsform dem Digitalbildcodierer der neunten Ausführungsform (Fig. 23) den Demultiplexer 76 und Bewegungsvektordecodierer 77 des Digitalbilddecodierers der neunten Ausführungsform (Fig. 24), einen zweiten Eingangsanschluss 90 und drei Umschalter 91, 92 und 93 hinzu.
  • Zum Codieren eines Bewegtbildes werden die Umschalter 91, 92 und 93 in die Position gebracht, die in der Zeichnung mit "a" markiert ist. Aufeinander folgende Einzelbilder X&sub0; werden am Eingangsanschluss 10 eingegeben und genau wie im Digitalbildcodierer der neunten Ausführungsform verarbeitet, wobei die codierten Ergebnisse vom Demultiplexer 73 an die Eingabe-/Ausgabevorrichtung 28 ausgegeben werden.
  • Zum Decodieren eines codierten Bewegtbildes werden die Umschalter 91, 92 und 93 in die mit "b" markierte Position gebracht. Das codierte Bewegtbild C wird vom zweiten Eingangsanschluss 90 in den Demultiplexer 73 eingegeben und genau wie im Digitalbilddecodierer der neunten Ausführungsform verarbeitet, wobei die decodierten Ergebnisse vom Bewegungskompensator 81 an die Eingabe- /Ausgabevorrichtung 37 ausgegeben werden.
  • Die elfte Ausführungsform hat die gleichen Vorteile wie die neunte Ausführungsform, mit dem weiteren Vorteil, dass die Codier- und Decodierfunktionen die Elemente Bewegungskompensator 81, Decodierer 31 und 32, Filter 48-m, Kantensynthesegeneratoren 49-m und Wavelet- Rücktransformationsprozessor 50 gemeinsam benutzen können, wodurch unnötige Verdoppelung vermieden wird. Diese Ausführungsform ist besonders für Bildtelefone und andere Zweirichtungs-Videosysteme geeignet.
  • Zwölfte Ausführungsform
  • Die zwölfte Ausführungsform ist ein Digitalbildcodierer/-decodierer, der die Merkmale der Ausführungsformen zehn und elf vereinigt.
  • Unter Bezugnahme auf Fig. 28 fügt die zwölfte Ausführungsform dem Digitalbildcodierer der zehnten Ausführungsform (Fig. 25) die gleichen Elemente Demultiplexer 76, Bewegungsvektordecodierer 77, zweiter Eingangsanschluss 90 und Umschalter 91, 92 und 93 wie in der elften Ausführungsform hinzu. Die zwölfte Ausführungsform arbeitet wie die elfte, hat aber den weiteren Vorteil einer verbesserten Wiedergabe von hochfrequenten Bilddetails aufgrund von diagonalem Kantennachweis.
  • Wie oben beschrieben, ermöglichen die erfundenen Codier- und Decodierverfahren und -vorrichtungen hohe Kompressionsraten mit maßvollen Berechnungsmengen. Es gibt zwar etwas Verlust an Details, die rekonstruierten Bilder werden aber nicht gestört, und da die Hochfrequenzinformation in einem einzigen Schritt statt durch Iteration durch Synthese hergestellt wird, wird der Rekonstruktionsprozess zuverlässig in einer kurzen und bestimmten Zeit abgeschlossen. Die Erfindung kann zweckdienlich sowohl auf Standbilder als auch auf Bewegtbilder für eine große Vielfalt von Zwecken in einer großen Vielfalt von Systemen angewandt werden.
  • Der Schutzbereich der Erfindung ist nicht auf die oben beschriebenen Ausführungsformen beschränkt, sondern umfasst weitere Variationen wie z. B. die Folgenden.
  • In den Ausführungsformen eins, zwei, fünf, sechs, neun und elf kann der Kantendetektor 21, statt getrennte horizontale und vertikale Kantenbilder zu erzeugen, ein einziges Kantenbild ausgeben, in dem jeder Kantenpunkt sowohl einen Schärfewert S(i, j) als auch einen Richtungswinkel &theta;(i, j) hat, der zum Beispiel durch die folgenden Formeln aus Sh(i, j) und Sv(i, j) berechnet wird:
  • S(i, j) = sgn[Sh(i, j)]·[Sh(i, j)² + Sv(i, j)²]1/2
  • &theta;(i, j) = arctan[Sv(i, j)/Sh(i, j)]
  • In diesen Formeln bezeichnet sgn das algebraische Vorzeichen (plus oder minus eins), und arctan bezeichnet die Umkehr-Tangensfunktion. Der Codierteil muss dann nur einen Satz Kantenpositionen codieren. Der Decodierteil im Digitalbilddecodierer kann Sh(i, j) und Sv(i, j) aus S(i, j) und &theta;(i, j) wiedergewinnen.
  • Dieses Verfahren, nur ein einziges Kantenbild zu codieren, ist besonders wirksam, wenn Kettencodierung verwendet wird, da sich der Richtungswinkel tendenziell nur langsam entlang einer Kette von Kantenpunkten ändert. Überdies ist der Winkel tendenziell senkrecht zur Richtung der Kette, so dass es möglich ist, dass der Kantendetektor nur die obige Kantenschärfe S(i, j) berechnet, und den Decodierer den Richtungswinkel &theta;(i, j) eines Kantenpunktes (i, j) aus der Richtung der Kette in der Nachbarschaft dieses Punktes folgern zu lassen. Das Kompressionsverhältnis kann auf diese Weise wesentlich verbessert werden, wenn auch mit etwas Verlust an Rekonstruktionsgenauigkeit.
  • Dieses Codierverfahren kann außerdem auf die horizontalen und vertikalen Kantenbilder in den anderen Ausführungsformen angewandt werden, wenn das ursprüngliche Bild vor dem horizontalen und vertikalen Kantennachweis nicht herunterabgetastet wird. Das notwendige Herunterabtasten wird dann statt dessen im Decodierer durchgeführt, wie in der zweiten Ausführungsform. In den Ausführungsformen fünf, sechs, sieben und acht hat dieses Codierverfahren den weiteren Vorteil, die Anzahl der Kantenbilder zu vermindern, für die Bewegungsvektoren berechnet werden müssen.
  • Bei dem Digitalbildcodierer in irgendeiner der Ausführungsformen ist es möglich, dass die zweidimensionale Glättung in einem einzigen Schritt statt durch eine Kaskadenreihe von Filtern durchgeführt wird. Diese Filter h&sub1;, h&sub2;, ..., hn zum Beispiel in der ersten Ausführungsform können wechselweise gefaltet werden, um ein einziges Filter zu ergeben, das das gleiche Ergebnis liefert wie Anwendung der Kaskadenreihe von Filtern. Zur Verwendung in den anderen Ausführungsformen kann das Herunterabtasten in dieses einzige Filter eingebaut werden, indem einfach die Werte von lediglich 1/4n der Ausgangspixel berechnet werden.
  • Die in den horizontalen und vertikalen Richtungen angewandten Glättungsfilter müssen nicht identisch sein. In einer dieser Richtungen kann ein Glättungsfilter mit einer geraden Anzahl von Abgriffen angewandt werden, und in der anderen Richtung kann ein Glättungsfilter mit einer ungeraden Anzahl von Abgriffen angewandt werden. Die zur Decodierung verwendeten Kantensynthesefilter (e), Vervollständigungsfilter (f) und Hochpassfilter (g) erfordern dann ebenfalls getrennte Versionen für die horizontalen und vertikalen Richtungen.
  • Der Kantennachweis ist nicht auf das Verfahren Differenzen von Differenzen beschränkt. Dieses Verfahren wird bevorzugt; es können aber auch andere Verfahren verwendet werden.
  • Die verwendeten Filter wurden als um null oder 1/2 symmetrisch beschrieben; dies ist aber nur eine Sache der Schreibweise. Das Symmetriezentrum kann an irgendeinem geeigneten Ort liegen.
  • Die Standardkante, aus der die Kantensynthesefilter erzeugt werden, muss keine Kante von dem in Fig. 3 gezeigten Typ sein, in der sich die Pixelwerte zuerst mit einer konstanten Rate und dann mit einer anderen konstanten Rate ändern. Es können andere Typen verwendet werden, vorausgesetzt, die Standardkante enthält nur einen Punkt, der vom Kantendetektor als ein Kantenpunkt nachgewiesen würde.
  • Der Fachmann erkennt, das noch weitere Variationen möglich sind, ohne den nachfolgend beanspruchten Schutzbereich zu verlassen.

Claims (62)

1. Verfahren zum Codieren und Decodieren eines digitalisierten Bildes, das aus Pixeln mit Pixelwerten (X&sub0;(i, j)) besteht, mit den folgenden Verfahrensschritten:
die Schärfe von Kanten in dem digitalisierten Bild festzustellen und den Pixeln entsprechende Schärfewerte (Sh(i, j), Sv(i, j)) zuzuordnen;
Positions- (i, j) und Schärfewerte (Sh, Sv) von Pixeln zu codieren (24), deren Schärfewerte eine bestimmte Schwelle (T) übersteigen, um Kantenbildinformation (Cs) zu erzeugen;
das digitalisierte Bild unter Verwendung einer Kaskadenreihe von zweidimensionalen Glättungs- (22-m, m = 1, ..., n) und Herunterabtastfiltern (42-m, m = 1, ..., n) wiederholt zu filtern (43, 45) und herunterabzutasten (44, 46), um ein Reduktionsbild (Xn) zu erzeugen;
das Reduktionsbild zu codieren (25), um Reduktionsbildinformation (Cr) zu erzeugen;
die Kantenbildinformation (Cs) und die Reduktionsbildinformation (Cr) an eine Eingabe- /Ausgabevorrichtung (28) zu senden;
die Kantenbildinformation und die Reduktionsbildinformation von der Eingabe- /Ausgabevorrichtung (28) zu empfangen;
aus der von der Eingabe-/Ausgabevorrichtung (28) empfangenen Kantenbildinformation einen ersten Satz decodierte Kantenbilder zu erzeugen (31), der mindestens ein erstes decodiertes horizontales Kantenbild (Sh&sub1;) und ein erstes decodiertes vertikales Kantenbild (Sv&sub1;) enthält;
den ersten Satz decodierte Kantenbilder unter Verwendung mindestens eines zweidimensionalen Glättungsfilters (33-1, 48-1, 53-1) zu filtern (33-(m-1), m = 2, ..., n) und herunterabzutasten (48-(m-1), 53-(m-1), m = 2, ... n), um eine Reihe von Sätzen decodierte Kantenbilder (Shm, Svm, m = 1, ..., n) zu erzeugen, die den ersten Satz decodierte Kantenbilder (Sh&sub1;, Sv&sub1;) enthält;
eine Reihe von Sätzen Hochfrequenzbilder (Yhm, Yvm, m = 1, ..., n) durch Synthese herzustellen, indem die Reihe von Sätzen decodierte Kantenbilder mit jeweiligen Kantensynthesefiltern (34-m, 49-m, 54-m, m = 1, ..., n) gefiltert wird;
die von der Eingabe-/Ausgabevorrichtung (28) empfangene Reduktionsbildinformation (Cr) zu decodieren (32), um ein decodiertes Reduktionsbild (X'n) zu erhalten; und
eine Wavelet-Rücktransformation (36-m, 50-m, 55-m, m = 1, ... n) an dem decodierten Reduktionsbild und der Reihe von Sätzen Hochfrequenzbilder durchzuführen, um ein decodiertes digitalisiertes Bild (X'&sub0;) zu erhalten.
2. Verfahren nach Anspruch 1, bei dem alle Hochfrequenzbilder die gleiche Größe haben, mit dem weiteren Verfahrensschritt, das decodierte Reduktionsbild auf diese Größe heraufabzutasten, bevor die Wavelet-Rücktransformation durchgeführt wird.
3. Verfahren nach Anspruch 1, bei dem
der Verfahrensschritt, den ersten Satz decodierte Kantenbilder zu filtern, außerdem Herunterabtasten umfasst, so dass die Sätze decodierte Kantenbilder in der Reihe von Sätzen decodierte Kantenbilder zunehmend geringere Größen haben, und
der Verfahrensschritt, eine Wavelet-Rücktransformation durchzuführen, Heraufabtasten durch Einfügen von Pixeln mit dem Wert Null umfasst.
4. Verfahren nach Anspruch 3, bei dem zum Filtern aller Sätze decodierte Kantenbilder identische Kantensynthesefilter verwendet werden.
5. Verfahren nach Anspruch 1, bei dem jedes Kantensynthesefilter Koeffizienten hat, die durch Filtern einer Standardkante mit einem Hochpassfilter erzeugt werden.
6. Verfahren nach Anspruch 5, bei dem die Standardkante aus einem ersten Teil und einem zweiten Teil besteht, mit Pixelwerten, die sich in dem ersten Teil mit einer konstanten Rate ändern und in dem zweiten Teil mit einer anderen konstanten Rate ändern.
7. Verfahren nach Anspruch 5, bei dem das zur Erzeugung mindestens eines der Kantensynthesefilter verwendete Hochpassfilter gerade Symmetrie hat.
8. Verfahren nach Anspruch 5, bei dem das zur Erzeugung mindestens eines der Kantensynthesefilter verwendete Hochpassfilter ungerade Symmetrie hat.
9. Verfahren nach Anspruch 8, bei dem der Verfahrensschritt der Herstellung durch Synthese folgendes umfasst:
Differenzen zwischen aufeinander folgenden Koeffizienten des einen Kantensynthesefiltern zu nehmen, um ein Differenz-Kantensynthesefilter zu erzeugen;
eines der decodierten Kantenbilder mit dem Differenz-Kantensynthesefilter zu filtern, um ein Differenz-Hochfrequenzbild zu erzeugen; und
in dem Differenz-Hochfrequenzbild Werte anzusammeln.
10. Verfahren nach Anspruch 5, bei dem der Verfahrensschritt, eine Wavelet- Rücktransformation durchzuführen, umfasst, mindestens eines der Hochfrequenzbilder mit einem konjugierten Filter des Hochpassfilters zu filtern.
11. Verfahren nach Anspruch 1, bei dem das Nachweisen der Schärfe von Kanten folgendes umfasst:
Differenzen zwischen Pixelwerten benachbarter Pixel zu nehmen; und
Differenzen der Differenzen zu nehmen.
12. Verfahren nach Anspruch 11, bei dem das Nachweisen der Schärfe von Kanten die folgenden unabhängig durchgeführten Verfahrensschritte umfasst:
die Differenzen und die Differenzen der Differenzen in einer horizontalen Richtung zu nehmen, um ein horizontales Kantenbild zu erhalten; und
die Differenzen und die Differenzen der Differenzen in einer vertikalen Richtung zu nehmen, um ein vertikales Kantenbild zu erhalten.
13. Verfahren nach Anspruch 12, bei dem jeder Satz decodierte Kantenbilder in der Reihe von Sätzen decodierte Kantenbilder ein decodiertes horizontales Kantenbild und ein decodiertes vertikales Kantenbild umfasst und bei dem der Verfahrensschritt der Herstellung durch Synthese folgendes umfasst:
jedes decodierte horizontale Kantenbild horizontal zu filtern, um ein horizontales Hochfrequenzbild zu erhalten; und
jedes decodierte vertikale Kantenbild vertikal zu filtern, um ein vertikales Hochfrequenzbild zu erhalten.
14. Verfahren nach Anspruch 13, bei dem der Verfahrensschritt, eine Wavelet- Rücktransformation durchzuführen, folgendes umfasst:
das Reduktionsbild horizontal und vertikal mit einem Tiefpassfilter zu filtern;
das horizontale Hochfrequenzbild horizontal mit einem Hochpassfilter und vertikal mit einem Tiefpassfilter zu filtern; und
das vertikale Hochfrequenzbild vertikal mit einem Hochpassfilter und horizontal mit einem Tiefpassfilter zu filtern.
15. Verfahren nach Anspruch 11, bei dem das Nachweisen der Schärfe von Kanten die folgenden unabhängig durchgeführten Verfahrensschritte umfasst:
das digitalisierte Bild in einer vertikalen Richtung zu glätten und herunterabzutasten und dann die Differenzen und die Differenzen der Differenzen in einer horizontalen Richtung zu nehmen, um ein horizontales Kantenbild zu erhalten; und
das digitalisierte Bild in der horizontalen Richtung zu glätten und herunterabzutasten und dann die Differenzen und die Differenzen der Differenzen in der vertikalen Richtung zu nehmen, um ein vertikales Kantenbild zu erhalten; und
die Differenzen und die Differenzen der Differenzen in dem digitalisierten Bild aufeinander folgend in der horizontalen Richtung und der vertikalen Richtung zu nehmen, um ein diagonales Kantenbild zu erhalten.
16. Verfahren nach Anspruch 15, bei dem jeder Satz decodierte Kantenbilder in der Reihe von Sätzen decodierte Kantenbilder ein decodiertes horizontales Kantenbild, ein decodiertes vertikales Kantenbild und ein decodiertes diagonales Kantenbild umfasst und bei dem der Verfahrensschritt der Herstellung durch Synthese folgendes umfasst:
jedes decodierte horizontale Kantenbild horizontal zu filtern und herunterabzutasten, um ein entsprechendes horizontales Hochfrequenzbild zu erhalten;
jedes decodierte vertikale Kantenbild vertikal zu filtern und herunterabzutasten, um ein entsprechendes vertikales Hochfrequenzbild zu erhalten; und
jedes decodierte diagonale Kantenbild sowohl horizontal als auch vertikal zu filtern und herunterabzutasten, um ein entsprechendes diagonales Hochfrequenzbild zu erhalten.
17. Verfahren nach Anspruch 16, bei dem der Verfahrensschritt, eine Wavelet- Rücktransformation durchzuführen, folgendes umfasst:
das Reduktionsbild horizontal und vertikal mit einem Tiefpassfilter zu filtern;
das horizontale Hochfrequenzbild horizontal mit einem Hochpassfilter und vertikal mit einem Tiefpassfilter zu filtern;
das vertikale Hochfrequenzbild vertikal mit einem Hochpassfilter und horizontal mit einem Tiefpassfilter zu filtern; und
das diagonale Hochfrequenzbild horizontal und vertikal mit einem Hochpassfilter zu filtern.
18. Verfahren nach Anspruch 1, das auf aufeinander folgende Einzelbilder eines Bewegtbildes angewandt wird, wobei das Codieren von Positions- und Schärfewerten folgendes umfasst:
mindestens ein Kantenbild zu erzeugen, das Pixel mit Schärfewerten enthält;
ein erstes vorhergehendes Kantenbild, das zu einem vorhergehenden Einzelbild gehört, aus einem ersten Speicher (71) zu lesen;
Kantenbewegungsvektoren zu erzeugen, indem eine Bewegung des Kantenbildes in Bezug auf das erste vorhergehende Kantenbild nachgewiesen wird;
die Kantenbewegungsvektoren zu codieren, um Kantenbewegungsinformation als Teil der Kantenbildinformation zu erzeugen;
ein Kantendifferenzbild zu erzeugen, indem Differenzen zwischen dem Kantenbild und dem ersten vorhergehenden Kantenbild zusätzlich zu der Bewegung des Kantenbildes nachgewiesen werden; und
das Kantendifferenzbild zu codieren, um Kantendifferenzinformation als ein anderer Teil der Kantenbildinformation zu erzeugen.
19. Verfahren nach Anspruch 18, bei dem das Codieren von Positions- und Schärfewerten außerdem folgendes umfasst:
die Kantendifferenzinformation zu decodieren, um ein erstes decodiertes Kantendifferenzbild zu erzeugen;
das erste decodierte Kantendifferenzbild im Übereinstimmung mit den Kantenbewegungsvektoren zu dem ersten vorhergehenden Kantenbild zu addieren, um ein erstes neues Kantenbild zu erzeugen; und
das erste neue Kantenbild in dem ersten Speicher (71) zu speichern, zur Verwendung als ein erstes vorhergehendes Kantenbild in einem nachfolgenden Einzelbild.
20. Verfahren nach Anspruch 18, bei dem das Erzeugen eines ersten Satzes Kantenbilder aus der Kantenbildinformation folgendes umfasst:
die von der Eingabe-/Ausgabevorrichtung (28) empfangene Kantenbildinformation zu decodieren, um decodierte Kantenbewegungsvektoren, die mit den Kantenbewegungsvektoren identisch sind, und ein zweites decodiertes Kantendifferenzbild zu erhalten, das mit dem ersten decodierten Kantendifferenzbild identisch ist;
ein zweites vorhergehendes Kantendifferenzbild aus einem zweiten Speicher (71) zu lesen;
das zweite decodierte Kantendifferenzbild in Übereinstimmung mit den decodierten Kantenbewegungsvektoren zu dem zweiten vorhergehenden Kantenbild zu addieren, um ein zweites neues Kantenbild zu erzeugen; und
das zweite neue Kantenbild in dem zweiten Speicher (71) zu speichern, zur Verwendung als ein zweites vorhergehendes Kantenbild in einem nachfolgenden Einzelbild.
21. Verfahren nach Anspruch 18, bei dem das Codieren des Reduktionsbildes folgendes umfasst:
ein erstes vorhergehendes Reduktionsbild, das zu dem vorhergehenden Einzelbild gehört, aus einem dritten Speicher (72) zu lesen;
Reduktionsbewegungsvektoren zu erzeugen, indem eine Bewegung des Reduktionsbildes in Bezug auf das vorhergehende Reduktionsbild nachgewiesen wird;
die Reduktionsbewegungsvektoren zu codieren, um Reduktionsbewegungsinformation als Teil der Reduktionsbildinformation zu erzeugen;
ein Reduktionsdifferenzbild zu erzeugen, indem Differenzen zwischen dem Reduktionsbild und dem ersten vorhergehenden Reduktionsbild zusätzlich zu der Bewegung des Reduktionsbildes nachgewiesen werden; und
das Reduktionsdifferenzbild zu codieren, um Reduktionsdifferenzinformation als ein anderer Teil der Reduktionsbildinformation zu erzeugen.
22. Verfahren nach Anspruch 21, bei dem das Codieren des Reduktionsbildes weiterhin folgendes umfasst:
die Reduktionsdifferenzinformation zu decodieren, um ein erstes decodiertes Reduktionsdifferenzbild zu erzeugen;
das erste decodierte Reduktionsdifferenzbild in Übereinstimmung mit den Reduktionsbewegungsvektoren zu dem ersten vorhergehenden Reduktionsbild zu addieren, um ein erstes neues Reduktionsbild zu erzeugen; und
das erste neue Reduktionsbild in dem dritten Speicher (72) zu speichern, zur Verwendung als ein erstes vorhergehendes Reduktionsbild in einem nachfolgenden Einzelbild.
23. Verfahren nach Anspruch 21, bei dem das Decodieren der von der Eingabe- /Ausgabevorrichtung (28) empfangenen Reduktionsbildinformation folgendes umfasst:
die Reduktionsbildinformation zu decodieren, um decodierte Reduktionsbewegungsvektoren, die mit den Reduktionsbewegungsvektoren identisch sind, und ein zweites decodiertes Reduktionsdifferenzbild zu erhalten, das mit dem ersten decodierten Reduktionsdifferenzbild identisch ist;
ein zweites vorhergehendes Reduktionsdifferenzbild aus einem vierten Speicher (72) zu lesen;
das zweite decodierte Reduktionsdifferenzbild in Übereinstimmung mit den Reduktionsbewegungsvektoren zu dem zweiten vorhergehenden Reduktionsbild zu addieren, um ein zweites neues Reduktionsbild zu erzeugen; und
das zweite neue Reduktionsbild in dem vierten Speicher (71) zu speichern, zur Verwendung als ein zweites vorhergehendes Reduktionsbild in einem nachfolgenden Einzelbild.
24. Verfahren nach Anspruch 21, bei dem das Erzeugen von Kantenbewegungsvektoren umfasst, die Reduktionsbewegungsvektoren zu verwenden, um einen Suchbereich für die Kantenbewegungsvektoren auszuwählen.
25. Verfahren nach Anspruch 21, bei dem das Erzeugen von Reduktionsbewegungsvektoren umfasst, die Kantenbewegungsvektoren zu verwenden, um einen Suchbereich für die Reduktionsbewegungsvektoren auszuwählen.
26. Verfahren nach Anspruch 1, das auf aufeinander folgende Einzelbilder eines Bewegtbildes angewandt wird, mit folgenden weiteren Verfahrensschritten:
ein aktuelles Einzelbild des Bewegtbildes zu, empfangen;
ein erstes vorhergehendes decodiertes Einzelbild des Bewegtbildes aus einem fünften Speicher (82) zu lesen;
Bewegungsvektoren zu erzeugen, indem eine Bewegung des aktuellen Einzelbildes in Bezug auf das erste vorhergehende decodierte Einzelbild nachgewiesen wird;
die Bewegungsvektoren zu codieren, um Bewegungsinformation zu erzeugen;
das digitalisierte Bild zu erzeugen, indem Differenzen zwischen dem aktuellen Einzelbild und dem ersten vorhergehenden decodierten Einzelbild zusätzlich zu der Bewegung des aktuellen Bildes nachgewiesen werden; und
die Bewegungsinformation an die Eingabe-/Ausgabevorrichtung (28) zu senden.
27. Verfahren nach Anspruch 26, mit folgenden weiteren Verfahrensschritten:
die Bewegungsinformation von der Eingabe-/Ausgabevorrichtung (28) zu empfangen;
die Bewegungsinformation zu codieren, um decodierte Bewegungsvektoren zu erhalten;
ein zweites vorhergehendes decodiertes Einzelbild aus einem sechsten Speicher (82) zu lesen;
das decodierte digitalisierte Bild in Übereinstimmung mit den decodierten Bewegungsvektoren zu dem zweiten vorhergehenden decodierten Einzelbild zu addieren, um ein neues decodiertes Einzelbild zu erzeugen; und
das neue decodierte Einzelbild in dem sechsten Speicher (82) zu speichern, zur nachfolgenden Verwendung als ein zweites vorhergehendes decodiertes Einzelbild.
28. Verfahren nach Anspruch 27, mit folgenden weiteren Verfahrensschritten:
aus der an die Eingabe-/Ausgabevorrichtung (28) gesendeten Kantenbildinformation einen zweiten Satz Kantenbilder zu erzeugen, der mit dem ersten Satz Kantenbilder identisch ist;
den zweiten Satz Kantenbilder unter Verwendung mindestens eines zweidimensionalen Tiefpassfilters zu filtern, um eine zweite Reihe von Sätzen Kantenbilder zu erzeugen, die den zweiten Satz Kantenbilder enthält;
eine zweite Reihe von Sätzen Hochfrequenzbilder durch Synthese herzustellen, indem die zweite Reihe von Sätzen Kantenbilder mit jeweiligen Kantensynthesefiltern gefiltert wird;
die an die Eingabe-/Ausgabevorrichtung (28) gesendete Reduktionsbildinformation zu decodieren, um ein zweites decodiertes Reduktionsbild zu erhalten;
eine Wavelet-Rücktransformation an dem zweiten decodierten Reduktionsbild und der zweiten Reihe von Sätzen Hochfrequenzbilder durchzuführen, um ein zweites decodiertes digitalisiertes Bild zu erhalten;
das zweite decodierte digitalisierte Bild in Übereinstimmung mit den Bewegungsvektoren zu dem ersten vorhergehenden decodierten Einzelbild zu addieren, um ein neues decodiertes Einzelbild zu erzeugen, und
das neue decodierte Einzelbild in dem fünften Speicher (82) zu speichern, zur nachfolgenden Verwendung als ein erstes vorhergehendes decodiertes Einzelbild.
29. Digitalbildcodierer zum Codieren eines digitalisierten Bildes, das aus Pixeln mit Pixelwerten (X&sub0;(i, j)) besteht, der folgendes enthält:
einen Eingangsanschluss (10) zum Empfang des digitalisierten Bildes;
eine Kaskadenreihe von zweidimensionalen Glättungs- (22-m, m = 1, ..., n) und Herunterabtastfiltern (42-m, m = 1, ..., n) zum wiederholten Filtern und Herunterabtasten des digitalisierten Bildes, um eine Reihe von gefilterten und herunterabgetasteten Bildern (Xm, m = 1, ..., n) zu erzeugen, die in einem Reduktionsbild (Xn) gipfeln;
einen Codierteil (25, 27, 65, 78, 83), der mit der Kaskadenreihe verbunden ist, zum Codieren des Reduktionsbildes, um Reduktionsbildinformation (Cr) zu erzeugen;
einen Kantendetektor (21, 52) der mit dem Eingangsanschluss (10) verbunden ist, zur Erzeugung von mindestens einem Kantenbild (Sh, Sv) durch Nachweis von und Schwellwertoperation (T) an Kantenschärfewerten (Sh(i, j), Sv(i, j)) in dem digitalisierten Bild; und
einen Kantencodierteil (24, 27, 65, 78, 83), der mit dem Kantendetektor (21, 52) verbunden ist, zum Codieren des Kantenbildes, um Kantenbildinformation (Cs) zu erzeugen.
30. Digitalbildcodierer nach Anspruch 29, bei dem der Kantendetektor (21, 52) Veränderungen in der Änderungsrate der Pixelwerte von Pixel zu Pixel nachweist.
31. Digitalbildcodierer nach Anspruch 30, bei dem der Kantendetektor (21) die Veränderungen horizontal in dem digitalisierten Bild nachweist, um ein horizontales Kantenbild zu erzeugen, und die Veränderungen vertikal in dem digitalisierten Bild nachweist, um ein vertikales Kantenbild zu erzeugen.
32. Digitalbildcodierer nach Anspruch 30, mit einem eindimensionalen Glättungs- und Herunterabtastteil (51), der zwischen dem Eingangsanschluss (10) und dem Kantendetektor (52) angeordnet ist, zum Glätten und Herunterabtasten des digitalisierten Bildes horizontal, um ein horizontal herunterabgetastetes Bild zu erzeugen, und Glätten und Herunterabtasten des digitalisierten Bildes vertikal, um ein vertikal herunterabgetastetes Bild zu erzeugen.
33. Digitalbildcodierer nach Anspruch 32, bei dem der Kantendetektor (52) die Veränderungen horizontal in dem vertikal herunterabgetasteten Bild nachweist, um ein horizontales Kantenbild zu erzeugen, die Veränderungen vertikal in dem horizontal herunterabgetasteten Bild nachweist, um ein vertikales Kantenbild zu erzeugen, und die Veränderungen horizontal und vertikal in dem digitalisierten Bild nachweist, um ein diagonales Kantenbild zu erzeugen.
34. Digitalbildcodierer nach Anspruch 29, bei dem der Codierteil (27) folgendes enthält:
einen Kantenbildcodierer (24), der mit dem Wähler (50) verbunden ist, zum Codieren des Kantenbildes, um Kantenbildinformation zu erzeugen;
einen Reduktionsbildcodierer (25), der mit der Kaskadenreihe von zweidimensionalen Glättungs- und Herunterabtasifiltern (42-m) verbunden ist, zum Codieren des Reduktionsbildes, um Reduktionsbildinformation zu erzeugen; und
einen Multiplexer (26), der mit dem Kantenbildcodierer (24) und dem Reduktionsbildcodierer (25) verbunden ist, zum Multiplexen der Reduktionsbildinformation und der Kantenbildinformation.
35. Digitalbildcodierer nach Anspruch 29, bei dem das digitalisierte Bild ein Einzelbild in einem Bewegtbild ist, das aus aufeinander folgenden Einzelbildern besteht, und der Codierteil (65, 78) folgendes enthält:
einen ersten Speicher (71) zum Speichern eines vorhergehenden Kantenbildes, das zu einem vorhergehenden Einzelbild unter den Einzelbildern gehört;
einen ersten Bewegungsschätzer (66), der mit dem Kantendetektor (21) und dem ersten Speicher (71) verbunden ist, zum Nachweis einer Bewegung des Kantenbildes in Bezug auf das vorhergehende Kantenbild, Erzeugen von Bewegungsvektoren, Nachweis von Differenzen zwischen dem Kantenbild und dem vorhergehenden Kantenbild zusätzlich zu der Bewegung des Kantenbildes, und Erzeugen eines Kantendifferenzbildes;
einen zweiten Speicher (72) zum Speichern eines vorhergehenden Reduktionsbildes, das zu dem vorhergehenden Einzelbild gehört; und
einen zweiten Bewegungsschätzer (67), der mit der Kaskadenreihe von zweidimensionalen Glättungs- und Herunterabtastfiltern (42-m) und dem zweiten Speicher (72) verbunden ist, zum Nachweis einer Bewegung des Reduktionsbildes in Bezug auf das vorhergehende Reduktionsbild, Erzeugen von Reduktionsbewegungsvektoren, Nachweis von Differenzen zwischen dem Reduktionsbild und dem vorhergehenden Reduktionsbild zusätzlich zu der Bewegung des Reduktionsbildes, und Erzeugen eines Reduktionsdifferenzbildes.
36. Digitalbildcodierer nach Anspruch 35, bei dem
der erste Bewegungsschätzer (66) mit dem zweiten Bewegungsschätzer (67) verbunden ist und
der erste Bewegungsschätzer (66) die Reduktionsbewegungsvektoren verwendet, um einen Suchbereich für die Kantenbewegungsvektoren auszuwählen.
37. Digitalbildcodierer nach Anspruch 35, bei dem
der erste Bewegungsschätzer (66) mit dem zweiten Bewegungsschätzer (67) verbunden ist und
der zweite Bewegungsschätzen (67) die Kantenbewegungsvektoren verwendet, um einen Suchbereich für die Reduktionsbewegungsvektoren auszuwählen.
38. Digitalbildcodierer nach Anspruch 35, bei dem der Codierteil (65, 78) folgendes enthält:
einen Kantenbildcodierer (24), der mit dem ersten Bewegungsschätzen (66) verbunden ist, zum Codieren des Kantendifferenzbildes, um Kantenbildinformation zu erzeugen;
einen Kantenbilddecodierer (31), der mit dem Kantenbildcodierer (24) verbunden ist, zum Decodieren der Kantenbildinformation, um ein decodiertes Kantendifferenzbild zu erzeugen;
einen ersten Bewegungskompensator (69), der mit dem ersten Speicher (71), dem ersten Bewegungsschätzen (66) und dem Kantenbilddecodierer (31) verbunden ist, zum Addieren des decodierten Kantendifferenzbildes zu dem vorhergehenden Kantenbild in Übereinstimmung mit den Kantenbewegungsvektoren, um ein neues Kantenbild zu erzeugen, und Speichern des neues Kantenbildes in dem ersten Speicher (71), zur Verwendung als ein vorhergehendes Kantenbild in einem nachfolgenden Einzelbild unter den Einzelbildern;
einen Reduktionsbildcodierer (25), der mit dem zweiten Bewegungsschätzen (67) verbunden ist, zum Codieren des Reduktionsdifferenzbildes, um Reduktionsbildinformation zu erzeugen;
einen Reduktionsbilddecodierer (32), der mit dem Reduktionsbildcodierer (25) verbunden ist, zum Decodieren der Reduktionsbildinformation, um ein decodiertes Reduktionsdifferenzbild zu erzeugen;
einen zweiten Bewegungskompensator (70), der mit dem Reduktionsbilddecodierer (32), dem zweiten Bewegungsschätzer (67) und dem zweiten Speicher (72) verbunden ist, zum Addieren des decodierten Reduktionsdifferenzbildes zu dem vorhergehenden Reduktionsbild in Übereinstimmung mit den Reduktionsbewegungsvektoren, um ein neues Reduktionsdifferenzbild zu erzeugen, und Speichern des neues Reduktionsdifferenzbildes in dem zweiten Speicher (72), zur Verwendung als ein vorhergehendes Reduktionsbild in dem nachfolgenden Einzelbild;
einen Bewegungsvektorcodierer (68), der mit dem ersten Bewegungsschätzer (66) und dem zweiten Bewegungsschätzer (67) verbunden ist, zum Codieren der Kantenbewegungsvektoren und der Reduktionsbewegungsvektoren, um Bewegungsinformation zu erzeugen; und
einen Multiplexer (73), der mit dem Bewegungsvektorcodierer (68), dem Kantenbildcodierer (24) und dem Reduktionsbildcodierer (25) verbunden ist, zum Multiplexen der Bewegungsinformation, der Kantendifferenzinformation und der Reduktionsbildinformation.
39. Digitalbildcodierer nach Anspruch 29, bei dem das digitalisierte Bild ein Einzelbild in einem Bewegtbild ist, das aus aufeinander folgenden Einzelbildern besteht, und der außerdem folgendes enthält:
einen Speicher (82) zum Speichern eines vorhergehenden Einzelbildes unter den Einzelbildern;
einen Bewegungsschätzer (80), der mit dem Eingangsanschluss (10) und dem Speicher (82) verbunden ist, zum Nachweis einer Bewegung des digitalisierten Bildes in Bezug auf das vorhergehende Einzelbild, Erzeugen von Bewegungsvektoren, Nachweis von Differenzen zwischen dem digitalisierten Bild und dem vorhergehenden Einzelbild zusätzlich zu der Bewegung des digitalisierten Bildes, um ein Differenzbild zu erzeugen, und Versorgen des Kantendetektors (21, 52) und der Kaskadenreihe von zweidimensionalen Glättungs- und Herunterabtastfiltern (42-m) mit dem Differenzbild anstelle des digitalisierten Bildes.
40. Digitalbildcodierer nach Anspruch 39, bei dem der Codierteil (27) folgendes enthält:
einen Kantenbildcodierer (24) zum Codieren des Kantenbildes, um Kantenbildinformation zu erzeugen;
einen Reduktionsbildcodierer (25) zum Codieren des Reduktionsbildes, um Reduktionsbildinformation zu erzeugen;
einen Bewegungsvektorcodierer (68), der mit dem Bewegungsschätzer (80) verbunden ist, zum Codieren der Bewegungsvektoren, um Bewegungsinformation zu erzeugen; und
einen Multiplexer (73), der mit dem Kantenbildcodierer (24), dem Reduktionsbildcodierer (25) und dem Bewegungsvektorcodierer (68) verbunden ist, zum Multiplexen der Bewegungsinformation, der Kantenbildinformation und der Reduktionsbildinformation.
41. Digitalbildcodierer nach Anspruch 40, der weiterhin folgendes enthält:
einen Kantenbilddecodierer (31), der mit dem Kantenbildcodierer (24) verbunden ist, zum Decodieren der Kantenbildinformation, um einen ersten Satz decodierte Kantenbilder zu erzeugen;
einen Reduktionsbilddecodierer (32), der mit dem Reduktionsbildcodierer (25) verbunden ist, zum Decodieren der Reduktionsbildinformation, um ein decodiertes Reduktionsbild zu erzeugen;
mindestens ein zweidimensionales Glättungs- und Herunterabtastfilter (48-m, 53-m) zum Glätten und Herunterabtasten des ersten Satzes decodierte Kantenbilder, um eine Reihe von Sätzen decodierte Kantenbilder zu erzeugen, wobei der erste Satz decodierte Kantenbilder in der Reihe von Sätzen decodierte Kantenbilder enthalten ist;
eine Vielzahl von Kantensynthesegeneratoren (49-m, 54-m) mit jeweiligen Kantensynthesefiltern, zur Herstellung durch Synthese einer Reihe von Sätzen Hochfrequenzbilder aus jeweiligen Sätzen decodierte Kantenbilder durch Filtern mit den Kantensynthesefiltern;
einen Wavelet-Rücktransformationsprozessor (50, 55), der mit dem Reduktionsbilddecodierer (32) und der Vielzahl von Kantensynthesegeneratoren (49-m, 54-m) verbunden ist, zur Durchführung einer Wavelet-Rücktransformation an dem decodierten Reduktionsbild und der Reihe von Sätzen Hochfrequenzbilder, um ein rekonstruiertes Differenzbild zu erzeugen; und
einen Bewegungskompensator (81), der mit dem Wavelet-Rücktransformationsprozessor (50, 55) und dem Speicher (82) verbunden ist, zum Addieren des rekonstruierten Differenzbildes zu dem vorhergehenden Einzelbild in Übereinstimmung mit den Bewegungsvektoren, um ein neues Einzelbild zu erzeugen, und Speichern des neues Einzelbildes in dem Speicher (82), zur nachfolgenden Verwendung als ein vorhergehendes Einzelbild.
42. Digitalbildcodierer nach Anspruch 29, bei dem der Kantendetektor (21, 52) Kanten in dem Kantenbild konstruiert, indem er die Kantenpunkte in Übereinstimmung mit einer ersten Schwelle nachweist, die Kanten durch Nachweis von weiteren Kantenpunkten in Übereinstimmung mit einer zweiten Schwelle, die kleiner als die erste Schwelle ist, dicker macht und dann jede Kante auf eine gleichförmige Dicke beschneidet.
43. Digitalbildcodierer zum Rekonstruieren eines digitalisierten Bildes aus codierter Kantenbildinformation (Cs) und codierter Reduktionsbildinformation (Cr), der folgendes enthält:
einen Decodierteil (29) zum Decodieren (31) der Kantenbildinformation, um einen ersten Satz decodierte Kantenbilder (Sh&sub1;, Sv&sub1;) zu erzeugen, und Decodieren (32) der Reduktionsbildinformation, um ein decodiertes Reduktionsbild (X'n) zu erzeugen;
mindestens ein zweidimensionales Glättungsfilter zum Glätten (33-(m-1), m = 2, ..., n) und Herunterabzutasten (48-(m-1), 53-(m-1), m = 2, ..., n) des ersten Satzes decodierte Kantenbilder, um eine Reihe von Sätzen decodierte Kantenbilder (Shm, Svm, m = 1, ..., n) zu erzeugen, wobei der erste Satz decodierte Kantenbilder (Sh&sub1;, Sv&sub1;) in der Reihe von Sätzen decodierte Kantenbilder enthalten ist;
eine Vielzahl von Kantensynthesegeneratoren (34-m, 49-m, 54-m, m = 1, ..., n) mit jeweiligen Kantensynthesefiltern, zur Herstellung durch Synthese von jeweiligen Sätzen Hochfrequenzbilder (Yhm, Yvm, m = 1, ..., n) aus jeweiligen Sätzen decodierte Kantenbilder durch Filtern mit den Kantensynthesefiltern; und
einen Wavelet-Rücktransformationsprozessor (36, 50, 55), der mit dem Decodierteil (29, 31, 32) und der Vielzahl von Kantensynthesegeneratoren (34-m, 49-m, 54-m) verbunden ist, zur Durchführung einer Wavelet-Rücktransformation an dem decodierten Reduktionsbild und den Sätzen Hochfrequenzbilder, um das digitalisierte Bild (X'&sub0;) zu rekonstruieren.
44. Digitalbildcodierer nach Anspruch 43, bei dem
die decodierten Kantenbilder alle die gleiche Größe haben,
die Kantensynthesefilter Koeffizienten haben, die durch Filtern einer Standardkante mit jeweiligen Hochpassfiltern erzeugt werden, die nach und nach kleiner werdende Grenzfrequenzen haben,
die Standardkante aus einem ersten Teil und einem zweiten Teil besteht, mit Pixelwerten, die sich in dem ersten Teil mit einer konstanten Rate ändern und in dem zweiten Teil mit einer anderen konstanten Rate ändern, und
der Wavelet-Rücktransformationsprozessor (36) die Sätze Hochfrequenzbilder mit konjugierten Filtern der jeweiligen Hochpassfilter filtert.
45. Digitalbildcodierer nach Anspruch 44, der außerdem einen Heraufabtaster (35) enthält, der zwischen dem Decodierteil (29) und dem Wavelet-Rücktransformationsprozessor (36) angeordnet ist, zum Heraufabtasten des decodierten Reduktionsbildes vor Eingabe in den Wavelet-Rücktransformationsprozessor (36).
46. Digitalbildcodierer nach Anspruch 43, bei dem
das zweidimensionale Glättungsfilter (48-m, 53-m) außerdem den ersten Satz decodierte Kantenbilder herunterabtastet,
die Sätze decodierte Kantenbilder in der Reihe von Sätzen decodierte Kantenbilder nach und nach kleinere Größe haben, und
der Wavelet-Rücktransformationsprozessor (50, 55) das decodierte Reduktionsbild und die Hochfrequenzbilder durch Interpolieren von Pixeln mit dem Wert Null heraufabtastet.
47. Digitalbildcodierer nach Anspruch 46, bei dem die Kantensynthesegeneratoren (49_m, 54-m) außerdem jeweilige Sätze decodierte Kantenbilder herunterabtasten.
48. Digitalbildcodierer nach Anspruch 46, bei dem
die Kantensynthesefilter Koeffizienten haben, die durch Filtern einer Standardkante mit einem Hochpassfilter erzeugt werden,
die Standardkante aus einem ersten Teil und einem zweiten Teil besteht, mit Pixelwerten, die sich in dem ersten Teil mit einer konstanten Rate ändern und in dem zweiten Teil mit einer anderen konstanten Rate ändern, und
der Wavelet-Rücktransformationsprozessor (50, 55) die Sätze Hochfrequenzbilder mit einem konjugierten Filter des Hochpassfilters filtert.
49. Digitalbildcodierer nach Anspruch 43, bei dem
jeder Satz decodierte Kantenbilder in der Reihe der Sätze decodierte Kantenbilder ein decodiertes horizontales Kantenbild und ein decodiertes vertikales Kantenbild enthält,
jeder Kantensynthesegenerator (36-m, 49-m, 54-m) in der Vielzahl von Kantensynthesefiltern das decodierte horizontale Kantenbild horizontal filtert, um ein horizontales Hochfrequenzbild zu erzeugen, und das decodierte vertikale Kantenbild vertikal filtert, um ein vertikales Hochfrequenzbild zu erzeugen, und
der Vavelet-Rücktransformationsprozessor (36, 50, 55) das Reduktionsbild horizontal und vertikal mit einem Tiefpassfilter filtert, das horizontale Hochfrequenzbild horizontal mit einem Hochpassfilter und vertikal mit einem Tiefpassfilter filtert und das vertikale Hochfrequenzbild vertikal mit einem Hochpassfilter und horizontal mit einem Tiefpassfilter filtert.
50. Digitalbildcodierer nach Anspruch 49, bei dem
jeder Satz decodierte Kantenbilder in der Reihe der Sätze decodierte Kantenbilder außerdem ein decodiertes diagonales Kantenbild enthält,
jeder Kantensynthesegenerator (54-m) in der Vielzahl von Kantensynthesefiltern das decodierte diagonale Kantenbild horizontal und vertikal filtert, um ein diagonales Hochfrequenzbild zu erzeugen, und
der Wavelet-Rücktransformationsprozessor (55) das diagonale Hochfrequenzbild horizontal und vertikal mit einem Hochpassfilter filtert.
51. Digitalbildcodierer nach Anspruch 43, bei dem
das digitalisierte Bild ein Bewegtbild ist, das aus aufeinander folgenden Einzelbildern besteht, und
der Decodierteil (75, 84) Bewegungsinformation und außerdem die Kantenbildinformation und die Reduktionsbildinformation empfängt.
52. Digitalbildcodierer nach Anspruch 51, bei dem der Decodierteil (75) folgendes enthält:
einen Bewegungsvektordecodierer (77) zum Decodieren der Bewegungsinformation, um Kantenbewegungsvektoren und Reduktionsbewegungsvektoren zu erhalten;
einen Kantenbilddecodierer (31) zum Decodieren der Kantenbildinformation, um mindestens ein Kantendifferenzbild zu erhalten;
einen ersten Speicher (71) zum Speichern eines vorhergehenden Kantenbildes, das zu einem vorhergehenden Einzelbild unter den Einzelbildern gehört;
einen ersten Bewegungskompensator (69), der mit dem Kantenbilddecodierer (31), dem Bewegungsvektordecodierer (77) und den ersten Speicher (71) verbunden ist, zum Addieren des Kantendifferenzbildes zu dem vorhergehenden Kantenbild in Übereinstimmung mit den Kantenbewegungsvektoren, um ein neues Kantenbild zu erzeugen, Speichern des neues Kantenbildes in dem ersten Speicher (71), zur Verwendung als ein vorhergehendes Kantenbild in einem nachfolgenden Einzelbild unter den Einzelbildern, und Erzeugen des ersten Satzes Kantenbilder;
einen Reduktionsbilddecodierer (32) zum Decodieren der Reduktionsbildinformation, um ein decodiertes Reduktionsdifferenzbild zu erhalten;
einen zweiten Speicher (72) zum Speichern eines vorhergehenden Reduktionsbildes, das zu dem vorhergehenden Einzelbild gehört; und
einen zweiten Bewegungskompensator (70), der mit dem Bewegungsvektordecodierer (77), dem Reduktionsbilddecodierer (32) und dem zweiten Speicher (72) verbunden ist;
zum Addieren des Reduktionsdifferenzbildes zu dem vorhergehenden Reduktionsbild in Übereinstimmung mit den Reduktionsbewegungsvektoren, um das Reduktionsbild zu erzeugen, und Speichern des Reduktionsbildes in dem zweiten Speicher (72), zur Verwendung als ein vorhergehendes Reduktionsbild in dem nachfolgenden Einzelbild.
53. Digitalbildcodierer nach Anspruch 51, bei dem der Decodierteil (84) folgendes enthält:
einen Bewegungsvektordecodierer (77) zum Decodieren der Bewegungsinformation, um Bewegungsvektoren zu erhalten;
einen Kantenbilddecodierer (31) zum Decodieren der Kantenbildinformation, um mindestens ein Kantendifferenzbild zu erhalten; und
einen Reduktionsbilddecodierer (32) zum Decodieren der Reduktionsbildinformation, um ein decodiertes Reduktionsdifferenzbild zu erhalten; und
bei dem der Digitalbildcodierer weiterhin folgendes enthält:
einen Speicher (82) zum Speichern eines vorhergehenden Einzelbildes unter den Einzelbildern; und
einen Bewegungsschätzer (81), der mit dem Wavelet-Rücktransformationsprozessor (50, 55), dem Bewegungsvektordecodierer und dem Speicher (82) verbunden ist, zum Addieren des rekonstruierten Digitalbildes zu dem vorhergehenden Einzelbild in Übereinstimmung mit den Bewegungsvektoren, um ein neues Einzelbild zu erzeugen, und Speichern des neues Einzelbildes in dem Speicher (82), zur nachfolgenden Verwendung als ein vorhergehendes Einzelbild.
54. Bewegbildcodierer/-decodierer, der einen ersten Zustand und einen zweiten Zustand aufweist, zum Codieren eines aus aufeinander folgenden Einzelbildern bestehenden Bewegtbildes in dem ersten Zustand und Decodieren eines codierten Bewegtbildes in dem zweiten Zustand, enthaltend:
einen ersten Eingangsanschluss (10) zum Empfang eines aktuellen Einzelbildes unter den aufeinander folgenden Einzelbildern;
einen Speicher (82) zum Speichern eines vorhergehenden Einzelbildes unter den Einzelbildern;
einen Bewegungsschätzer (80), der mit dem Eingangsanschluss (10) und dem Speicher (82) verbunden ist, zum Nachweis einer Bewegung des aktuellen Einzelbildes in Bezug auf das vorhergehende Einzelbild, Erzeugen von Bewegungsvektoren und Nachweis von Differenzen zwischen dem aktuellen Einzelbild und dem vorhergehenden Einzelbild zusätzlich zu der Bewegung des digitalisierten Bildes, um ein digitalisiertes Bild zu erzeugen, das aus Pixeln mit Pixelwerten besteht;
einen zweidimensionalen Glättungs- und Herunterabtastteil (41), der mit dem Eingangsanschluss (10) verbunden ist, zum Filtern und Herunterabtasten des digitalisierten Bildes, um ein Reduktionsbild zu erzeugen;
einen Kantendetektor (21, 52) der mit dem Eingangsanschluss (10) verbunden ist, zur Erzeugung von mindestens einem Kantenbild durch Nachweis von Kantenpunkten in dem digitalisierten Bild;
einen Kantenbildcodierer (24) zum Codieren des Kantenbildes, um Kantenbildinformation zu erzeugen;
einen Reduktionsbildcodierer (25) zum Codieren des Kantenreduktionsbildes, um Reduktionsbildinformation zu erzeugen;
einen Bewegungsvektorcodierer (68), der mit dem Bewegungsschätzer (80) verbunden ist, zum Codieren der Bewegungsvektoren, um Bewegungsinformation zu erzeugen;
einen Multiplexer (73), der mit dem Bewegungsvektorcodierer (68), dem Kantenbildcodierer (24) und dem Reduktionsbildcodierer (25) verbunden ist, zum Multiplexen und Ausgeben der Bewegungsinformation, der Kantenbildinformation und der Reduktionsbildinformation;
einen zweiten Eingangsanschluss (90) zum Empfang des codierten Bewegtbildes;
einen Demultiplexer (76) zum Demultiplexen des codierten Bewegtbildes in Kantenbildinformation, Reduktionsbildinformation und Bewegungsinformation;
einen ersten Umschalter (91), der mit dem Kantenbildcodierer (24) und dem Demultiplexer (76) verbunden ist, zum Auswählen der vom Kantenbildcodierer (24) erzeugten Kantenbildinformation in dem ersten Zustand und der vom Demultiplexer (76) demultiplexten Kantenbildinformation in dem zweiten Zustand;
einen zweiten Umschalter (92), der mit dem Reduktionsbildcodierer (25) und dem Demultiplexer (76) verbunden ist, zum Auswählen der vom Reduktionsbildcodierer (25) erzeugten Reduktionsbildinformation in dem ersten Zustand und der vom Demultiplexer (76) demultiplexten Reduktionsbildinformation in dem zweiten Zustand;
einen Bewegungsvektordecodierer (77) zum Decodieren der Bewegungsinformation, um Bewegungsvektoren zu erhalten;
einen dritten Umschalter (93), der mit dem Bewegungsschätzer (80) und dem Bewegungsvektordecodierer (77) verbunden ist, zum Auswählen der vom Bewegungsschätzer (80) erzeugten Bewegungsvektoren in dem ersten Zustand und der vom Bewegungsvektordecodierer (77) erhaltenen Bewegungsvektoren in dem zweiten Zustand;
einen Kantenbilddecodierer (31), der mit dem ersten Schalter (91) verbunden ist, zum Decodieren der mittels des ersten Schalters (91) ausgewählten Kantenbildinformation, um einen ersten Satz decodierte Kantenbilder zu erzeugen;
einen Reduktionsbilddecodierer (32), der mit dem zweiten Schalter (92) verbunden ist, zum Decodieren der mittels des zweiten Schalters (92) ausgewählten Reduktionsbildinformation, um ein decodiertes Reduktionsbild zu erzeugen;
mindestens ein zweidimensionales Glättungs- und Herunterabtastfilter (48-m, 53-m) zum Glätten und Herunterabtasten des ersten Satzes decodierte Kantenbilder, um eine Reihe von Sätzen decodierte Kantenbilder zu erzeugen, wobei der erste Satz decodierte Kantenbilder in der Reihe von Sätzen decodierte Kantenbilder enthalten ist;
eine Vielzahl von Kantensynthesegeneratoren (49-m, 54-m) mit jeweiligen Kantensynthesefiltern, zur Herstellung durch Synthese einer Reihe von Sätzen Hochfrequenzbilder aus jeweiligen Sätzen decodierte Kantenbilder durch Filtern mit den Kantensynthesefiltern;
einen Wavelet-Rücktransformationsprozessor (50, 55), der mit dem Reduktionsbilddecodierer (32) und der Vielzahl von Kantensynthesegeneratoren (49-m, 54-m) verbunden ist, zur Durchführung einer Wavelet-Rücktransformation an dem decodierten Reduktionsbild und der Reihe von Sätzen Hochfrequenzbilder, um ein rekonstruiertes Differenzbild zu erzeugen; und
einen Bewegungskompensator (81), der mit dem Wavelet-Rücktransformationsprozessor (50, 55), dem dritten Schalter (93) und dem Speicher (82) verbunden ist, zum Addieren des rekonstruierten Differenzbildes zu dem vorhergehenden Einzelbild in Übereinstimmung mit den mittels des dritten Schalters ausgewählten Bewegungsvektoren, um ein neues Einzelbild zu erzeugen, Ausgeben des neuen Einzelbildes als ein decodiertes Einzelbild und Speichern des neues Einzelbildes in dem Speicher (82), zur nachfolgenden Verwendung als ein vorhergehendes Einzelbild.
55. Bewegbildcodierer/-decodierer nach Anspruch 54, bei dem der Kantendetektor (21, 52) Veränderungen in der Änderungsrate der Pixelwerte von Pixel zu Pixel nachweist.
56. Bewegbildcodierer/-decodierer nach Anspruch 55, bei dem
der Kantendetektor (21) die Veränderungen horizontal in dem digitalisierten Bild nachweist, um ein horizontales Kantenbild zu erzeugen, und die Veränderungen vertikal in dem digitalisierten Bild nachweist, um ein vertikales Kantenbild zu erzeugen,
jeder Satz decodierte Kantenbilder in der Reihe von Sätzen decodierte Kantenbilder ein decodiertes horizontales Kantenbild und ein decodiertes vertikales Kantenbild enthält,
jeder Kantensynthesegenerator (49-m) in der Vielzahl von Kantensynthesefiltern das decodierte horizontale Kantenbild horizontal filtert, um ein horizontales Hochfrequenzbild zu erzeugen, und das decodierte vertikale Kantenbild vertikal filtert, um ein vertikales Hochfrequenzbild zu erzeugen, und
der Wavelet-Rücktransformationsprozessor (50) das Reduktionsbild horizontal und vertikal mit einem Tiefpassfilter filtert, das horizontale Hochfrequenzbild horizontal mit einem Hochpassfilter und vertikal mit einem Tiefpassfilter filtert und das vertikale Hochfrequenzbild vertikal mit einem Hochpassfilter und horizontal mit einem Tiefpassfilter filtert.
57. Bewegbildcodierer/-decodierer nach Anspruch 55, mit einem eindimensionalen Glättungs- und Herunterabtastteil (51), der zwischen dem Eingangsanschluss (10) und dem Kantendetektor (52) angeordnet ist, zum Glätten und Herunterabtasten des digitalisierten Bildes horizontal, um ein horizontal herunterabgetastetes Bild zu erzeugen, und Glätten und Herunterabtasten des digitalisierten Bildes vertikal, um ein vertikal herunterabgetastetes Bild zu erzeugen.
58. Bewegbildcodierer/-decodierer nach Anspruch 57, bei dem
der Kantendetektor (52) die Veränderungen horizontal in dem vertikal herunterabgetasteten Bild nachweist, um ein horizontales Kantenbild zu erzeugen, die Veränderungen vertikal in dem horizontal herunterabgetasteten Bild nachweist, um ein vertikales Kantenbild zu erzeugen, und die Veränderungen horizontal und vertikal in dem digitalisierten Bild nachweist, um ein diagonales Kantenbild zu erzeugen,
jeder Satz decodierte Kantenbilder in der Reihe von Sätzen decodierte Kantenbilder ein decodiertes horizontales Kantenbild, ein decodiertes vertikales Kantenbild und ein decodiertes diagonales Kantenbild enthält,
jeder Kantensynthesegenerator (54-m) in der Vielzahl von Kantensynthesefiltern das decodierte horizontale Kantenbild horizontal filtert, um ein horizontales Hochfrequenzbild zu erzeugen, das decodierte vertikale Kantenbild vertikal filtert, um ein vertikales Hochfrequenzbild zu erzeugen, und das decodierte diagonale Kantenbild horizontal und vertikal filtert, um ein diagonales Hochfrequenzbild zu erzeugen, und
der Wavelet-Rücktransformationsprozessor (55) das Reduktionsbild horizontal und vertikal mit einem Tiefpassfilter filtert, das horizontale Hochfrequenzbild horizontal mit einem Hochpassfilter und vertikal mit einem Tiefpassfilter filtert, das vertikale Hochfrequenzbild vertikal mit einem Hochpassfilter und horizontal mit einem Tiefpassfilter filtert und das diagonale Hochfrequenzbild horizontal und vertikal mit einem Hochpassfilter filtert.
59. Bewegbildcodiererl-decodierer nach Anspruch 54, bei dem der zweidimensionale Glättungs- und Herunterabtastteil (41) eine Kaskadenreihe von zweidimensionalen Glättungs- und Herunterabtastfiltern (42-m) zum Filtern und Herunterabtasten des digitalisierten Bildes enthält, um eine Reihe von gefilterten und herunterabgetasteten Bildern zu erzeugen, die in dem Reduktionsbild gipfeln.
60. Bewegbildcodierer/-decodierer nach Anspruch 54, bei dem
die Kantensynthesefilter Koeffizienten haben, die durch Filtern einer Standardkante mit einem Hochpassfilter erzeugt werden;
die Standardkante aus einem ersten Teil und einem zweiten Teil besteht, mit Pixelwerten, die sich in dem ersten Teil mit einer konstanten Rate ändern und in dem zweiten Teil mit einer anderen konstanten Rate ändern, und
der Wavelet-Rücktransformationsprozessor (50, 55) die Sätze Hochfrequenzbilder mit einem konjugierten Filter des Hochpassfilters filtert.
61. Bewegbildcodiererl-decodierer nach Anspruch 54, bei dem
das zweidimensionale Glättungsfilter (48-m, 53-m) außerdem den ersten Satz decodierte Kantenbilder herunterabtastet,
die Sätze decodierte Kantenbilder in der Reihe von Sätzen decodierte Kantenbilder nach und nach kleinere Größe haben, und
der Wavelet-Rücktransformationsprozessor (50, 55) das decodierte Reduktionsbild und die Hochfrequenzbilder durch Interpolieren von Pixeln mit dem Wert Null heraufabtastet.
62. Bewegbildcodierer/-decodierer nach Anspruch 61, bei dem die Kantensynthesegeneratoren (49_m, 54-m) außerdem jeweilige Sätze decodierte Kantenbilder herunterabtasten.
DE69525127T 1994-10-28 1995-10-24 Gerät und Verfahren zur Kodierung und Dekodierung von Bildern unter Verwendung einer Kantensynthese und einer Wavelet-Rücktransformation Expired - Lifetime DE69525127T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6264836A JPH08123967A (ja) 1994-10-28 1994-10-28 画像のエッジ検出装置
JP26483594 1994-10-28
JP15014295A JP3308767B2 (ja) 1994-10-28 1995-06-16 画像符号化復号化装置、画像復号化装置

Publications (2)

Publication Number Publication Date
DE69525127D1 DE69525127D1 (de) 2002-03-14
DE69525127T2 true DE69525127T2 (de) 2002-10-02

Family

ID=27319874

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69525127T Expired - Lifetime DE69525127T2 (de) 1994-10-28 1995-10-24 Gerät und Verfahren zur Kodierung und Dekodierung von Bildern unter Verwendung einer Kantensynthese und einer Wavelet-Rücktransformation

Country Status (4)

Country Link
US (5) US5761341A (de)
EP (1) EP0709809B1 (de)
KR (1) KR100388377B1 (de)
DE (1) DE69525127T2 (de)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6226414B1 (en) * 1994-04-20 2001-05-01 Oki Electric Industry Co., Ltd. Image encoding and decoding method and apparatus using edge synthesis and inverse wavelet transform
EP0709809B1 (de) * 1994-10-28 2002-01-23 Oki Electric Industry Company, Limited Gerät und Verfahren zur Kodierung und Dekodierung von Bildern unter Verwendung einer Kantensynthese und einer Wavelet-Rücktransformation
US6026182A (en) * 1995-10-05 2000-02-15 Microsoft Corporation Feature segmentation
US6037988A (en) * 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average
EP0817494A3 (de) * 1996-06-28 1998-07-22 Oki Electric Industry Co., Ltd. Bildkodierungsverfahren und -vorrichtung
JP4034380B2 (ja) * 1996-10-31 2008-01-16 株式会社東芝 画像符号化/復号化方法及び装置
US6259738B1 (en) * 1996-10-31 2001-07-10 Kabushiki Kaisha Toshiba Video encoding apparatus and video decoding apparatus
US6073849A (en) * 1996-11-01 2000-06-13 Psc Scanning, Inc. Electronic edge detection system using a second derivative signal processor
US6148115A (en) * 1996-11-08 2000-11-14 Sony Corporation Image processing apparatus and image processing method
JPH10271497A (ja) * 1997-03-24 1998-10-09 Minolta Co Ltd 画像処理装置
US6018368A (en) * 1997-07-11 2000-01-25 Samsung Electro-Mechanics Co., Ltd. Scalable encoding apparatus and method with improved function of scaling motion vector
US6125211A (en) * 1997-09-16 2000-09-26 Lu; Chung-Ya Progressive image transmission
US6272256B1 (en) * 1997-11-26 2001-08-07 International Business Machines Corporation Fast compression of periodic halftoned bitonal images
JP3433086B2 (ja) * 1998-01-22 2003-08-04 松下電器産業株式会社 画像変換方法および画像変換装置
US6400831B2 (en) 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
US6711278B1 (en) 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6898319B1 (en) * 1998-09-11 2005-05-24 Intel Corporation Method and system for video frame enhancement using edge detection
US6820202B1 (en) 1998-11-09 2004-11-16 First Data Corporation Account authority digital signature (AADS) system
US7047416B2 (en) * 1998-11-09 2006-05-16 First Data Corporation Account-based digital signature (ABDS) system
US6147699A (en) * 1998-11-10 2000-11-14 Lexmark International, Inc. Low electromagnetic emissions and improved signal quality video drive architecture for laser printers
US6236764B1 (en) * 1998-11-30 2001-05-22 Equator Technologies, Inc. Image processing circuit and method for reducing a difference between pixel values across an image boundary
US6771827B1 (en) 1998-12-23 2004-08-03 Xerox Corporation System and method for directed acuity segmentation resolution compression and decompression
JP3206584B2 (ja) * 1999-02-05 2001-09-10 日本電気株式会社 画像データ処理方法及び装置
AU4052300A (en) * 1999-04-01 2000-10-23 Chein-I Chang Method and apparatus for restoration of low resolution images
US6636633B2 (en) * 1999-05-03 2003-10-21 Intel Corporation Rendering of photorealistic computer graphics images
US7170941B2 (en) * 1999-08-13 2007-01-30 Patapsco Designs Inc. Temporal compression
EP1136948A1 (de) * 2000-03-21 2001-09-26 European Community Verfahren zur raumzeitlichen Filterung von aus einem kohärenten Sensor erzeugten Bildern
US6456663B1 (en) * 2000-03-29 2002-09-24 Matsushita Electric Industrial Co., Ltd. DCT domain down conversion system that compensates for IDCT mismatch
US6611627B1 (en) * 2000-04-24 2003-08-26 Eastman Kodak Company Digital image processing method for edge shaping
CA2413081A1 (en) * 2000-06-22 2001-12-27 The Arizona Board Of Regents On Behalf Of The University Of Arizona Agonist versus antagonist binding to g protein-coupled receptors
US7552333B2 (en) * 2000-08-04 2009-06-23 First Data Corporation Trusted authentication digital signature (tads) system
US7500272B2 (en) * 2000-08-04 2009-03-03 First Data Corporation Manufacturing unique devices that generate digital signatures
KR100362355B1 (ko) * 2000-09-29 2002-11-23 박성모 이산 웨이브렛 변환용 프로세서
US7558310B1 (en) * 2001-01-09 2009-07-07 Urbain Alfred von der Embse Multi-scale code division frequency/wavelet multiple access
US7248257B2 (en) * 2001-02-14 2007-07-24 Technion Research & Development Foundation Ltd. Low bandwidth transmission of 3D graphical data
GB0108080D0 (en) * 2001-03-30 2001-05-23 Univ Bath Audio compression
JP4316170B2 (ja) * 2001-09-05 2009-08-19 富士フイルム株式会社 画像データ作成方法および装置
US7151844B2 (en) * 2001-12-06 2006-12-19 General Motors Corporation Image sensor method and apparatus having hardware implemented edge detection processing
US7630569B2 (en) * 2002-02-26 2009-12-08 Decegama Angel Real-time software video/audio transmission and display with content protection against camcorder piracy
JP4169522B2 (ja) * 2002-03-22 2008-10-22 株式会社リコー 画像処理装置、画像処理プログラム及びこのプログラムを記憶する記憶媒体
CN1232126C (zh) 2002-09-30 2005-12-14 三星电子株式会社 图像编码方法和装置以及图像解码方法和装置
US6757434B2 (en) * 2002-11-12 2004-06-29 Nokia Corporation Region-of-interest tracking method and device for wavelet-based video coding
GB0227743D0 (en) * 2002-11-28 2003-01-08 Rolls Royce Plc Wavelet compression
US7463688B2 (en) * 2003-01-16 2008-12-09 Samsung Electronics Co., Ltd. Methods and apparatus for removing blocking artifacts of MPEG signals in real-time video reception
US7162076B2 (en) * 2003-02-11 2007-01-09 New Jersey Institute Of Technology Face detection method and apparatus
US20050025383A1 (en) * 2003-07-02 2005-02-03 Celartem Technology, Inc. Image sharpening with region edge sharpness correction
NO319660B1 (no) * 2003-11-17 2005-09-05 Tandberg Telecom As Fremgangsmåte for interpolering av pixelverdier
JP2005275900A (ja) * 2004-03-25 2005-10-06 Noritsu Koki Co Ltd 粒子状ノイズ抑制のための画像処理方法及びプログラム及びこの方法を実施する画像処理装置
US7653255B2 (en) 2004-06-02 2010-01-26 Adobe Systems Incorporated Image region of interest encoding
US7574059B2 (en) * 2004-10-29 2009-08-11 Broadcom Corporation System, method, and apparatus for providing massively scaled down video using iconification
US8363730B2 (en) * 2004-12-16 2013-01-29 Intel Corporation Local macroblock information buffer
JP4626473B2 (ja) * 2005-10-12 2011-02-09 セイコーエプソン株式会社 画像処理装置、画像出力装置および方法
US7518618B2 (en) * 2005-12-23 2009-04-14 Xerox Corporation Anti-aliased tagging using look-up table edge pixel identification
US20070269120A1 (en) * 2006-05-17 2007-11-22 Motorola, Inc. Video image compression using model plus difference image
US8116581B2 (en) * 2007-06-28 2012-02-14 Microsoft Corporation Efficient image representation by edges and low-resolution signal
US8208543B2 (en) * 2008-05-19 2012-06-26 Microsoft Corporation Quantization and differential coding of alpha image data
US20100014777A1 (en) * 2008-07-19 2010-01-21 Headplay (Barbados) Inc. System and method for improving the quality of compressed video signals by smoothing the entire frame and overlaying preserved detail
JP5241423B2 (ja) * 2008-10-16 2013-07-17 株式会社キーエンス 画像処理における画像データ縮小率の決定方法、画像処理におけるパターンモデルの位置決め方法、画像処理におけるパターンモデルの作成方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
KR101710883B1 (ko) * 2009-11-04 2017-02-28 삼성전자주식회사 필터 정보를 이용한 영상 압축 장치 및 방법과 영상 복원 장치 및 방법
US8428364B2 (en) 2010-01-15 2013-04-23 Dolby Laboratories Licensing Corporation Edge enhancement for temporal scaling with metadata
JPWO2012111757A1 (ja) 2011-02-18 2014-07-07 ソニー株式会社 画像処理装置および画像処理方法
JP2012216109A (ja) * 2011-04-01 2012-11-08 Sony Corp 画像処理装置と画像処理方法
TWI595770B (zh) * 2011-09-29 2017-08-11 杜比實驗室特許公司 具有對稱圖像解析度與品質之圖框相容全解析度立體三維視訊傳達技術
KR101538010B1 (ko) * 2012-08-31 2015-07-22 주식회사 에이투텍 영상 부호화 장치, 영상 부호화 방법, 영상 복호화 장치 및 영상 복호화 방법
KR102272108B1 (ko) * 2015-02-27 2021-07-05 삼성전자주식회사 영상 처리 장치 및 방법
US10616583B2 (en) * 2016-06-30 2020-04-07 Sony Interactive Entertainment Inc. Encoding/decoding digital frames by down-sampling/up-sampling with enhancement information

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4685143A (en) * 1985-03-21 1987-08-04 Texas Instruments Incorporated Method and apparatus for detecting edge spectral features
JPH0638198A (ja) * 1992-05-19 1994-02-10 Sony Corp 画像信号伝送装置及び画像信号伝送方法
JP3182015B2 (ja) * 1993-01-27 2001-07-03 テキサス インスツルメンツ インコーポレイテツド 光学像の合成方法
US5546477A (en) * 1993-03-30 1996-08-13 Klics, Inc. Data compression and decompression
AU6381394A (en) * 1993-03-30 1994-10-24 Lewis, Adrian S. Data compression and decompression
JP3472596B2 (ja) * 1993-06-11 2003-12-02 株式会社日立製作所 ノイズ低減フィルター
US5495292A (en) * 1993-09-03 1996-02-27 Gte Laboratories Incorporated Inter-frame wavelet transform coder for color video compression
US6226414B1 (en) * 1994-04-20 2001-05-01 Oki Electric Industry Co., Ltd. Image encoding and decoding method and apparatus using edge synthesis and inverse wavelet transform
JPH07299053A (ja) * 1994-04-29 1995-11-14 Arch Dev Corp コンピュータ診断支援方法
US5481269A (en) * 1994-05-27 1996-01-02 Westinghouse Electric Corp. General frame wavelet classifier
KR0150150B1 (ko) * 1994-07-14 1998-10-15 김광호 에지 강조를 이루는 오차확산 방식 이치화 방법 및 장치
EP0709809B1 (de) * 1994-10-28 2002-01-23 Oki Electric Industry Company, Limited Gerät und Verfahren zur Kodierung und Dekodierung von Bildern unter Verwendung einer Kantensynthese und einer Wavelet-Rücktransformation

Also Published As

Publication number Publication date
US6101277A (en) 2000-08-08
EP0709809A2 (de) 1996-05-01
EP0709809A3 (de) 1997-02-05
KR100388377B1 (ko) 2003-11-28
DE69525127D1 (de) 2002-03-14
US5878172A (en) 1999-03-02
US5949910A (en) 1999-09-07
EP0709809B1 (de) 2002-01-23
US5991448A (en) 1999-11-23
KR960016579A (ko) 1996-05-22
US5761341A (en) 1998-06-02

Similar Documents

Publication Publication Date Title
DE69525127T2 (de) Gerät und Verfahren zur Kodierung und Dekodierung von Bildern unter Verwendung einer Kantensynthese und einer Wavelet-Rücktransformation
DE69633129T2 (de) Waveletbaum-bildcoder mit überlappenden bildblöcken
DE3856536T2 (de) Kodierung von Daten, die wie eine multidimensionale Matrix dargestellt sind
DE69623330T2 (de) Merkmalbasiertes videokompressionsverfahren
DE69737514T2 (de) System und verfahren zum bearbeiten wellenartiger und umgekehrten wellenartigen transformationen von digitalen daten
DE69723550T2 (de) Kodierung und dekodierung von grafischen symbolen
DE69421837T2 (de) Videokoder und -dekoder
DE69322531T2 (de) Dynamische Bitverteilung für dreidimensionale Teilbandbildkodierung
DE69523703T2 (de) Videobildkomprimierung unter Verwendung einer hierarchischen Vektorquantisierung von gewichteten Wellenstückchen
DE60302602T2 (de) Sub-Pixel-Interpolation in Bewegungsschätzung und Bewegungskompensation
EP0309669B1 (de) Verfahren zur szenenmodellgestützten Bilddatenreduktion für digitale Fernsehsignale
DE69836696T2 (de) Verfahren und vorrichtung zur durchführung einer hierarchischen bewegungsschätzung unter verwendung einer nicht-linearen pyramide
DE19503571B4 (de) Bildkompressionsverfahren und -vorrichtung unter Verwendung eines bedingten Viergruppenbaumunterteilungssystems
DE69406306T2 (de) Verfahren zur bildskalierung und zum filtern mit diskreter cosinustransformation
DE602004004379T2 (de) Verfahren und einrichtungen zur codierung und decodierung einer bildsequenz mittels bewegungs-/texturzerlegung und wavelet-codierung
DE69425847T2 (de) Rechner für die inverse diskrete Cosinus-Transformation
US6389176B1 (en) System, method and medium for increasing compression of an image while minimizing image degradation
EP0421186B1 (de) Verfahren zur Codierung beliebig geformter Bildsegmente
DE69712566T2 (de) Bildkodierungsverfahren und Bildkodierer
DE69121995T2 (de) Bild-kodiereinrichtung und Bild-dekodiereinrichtung
DE69818751T2 (de) Dekompression von interpolierten Bildern
DE69424923T2 (de) Verfahren und Anordnung zur Bearbeitung eines dekodierten Bildsignals mit Verzerrung
DE19744407C1 (de) Verfahren zur mehrdimensionalen, diskreten Wavelet-Transformation und Transformationseinheit zur Durchführung des Verfahrens
EP1025704B1 (de) Verfahren zur bewegungskompensierenden prädiktion von bewegtbildfolgen
DE69723325T2 (de) Verfahren und Vorrichtung zur Codierung und Decodierung von Bildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition