DE60008716T2 - Verfahren zur Kompression digitaler Bilder - Google Patents

Verfahren zur Kompression digitaler Bilder Download PDF

Info

Publication number
DE60008716T2
DE60008716T2 DE60008716T DE60008716T DE60008716T2 DE 60008716 T2 DE60008716 T2 DE 60008716T2 DE 60008716 T DE60008716 T DE 60008716T DE 60008716 T DE60008716 T DE 60008716T DE 60008716 T2 DE60008716 T2 DE 60008716T2
Authority
DE
Germany
Prior art keywords
digital image
factor
image
energy measure
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60008716T
Other languages
English (en)
Other versions
DE60008716D1 (de
Inventor
Arcangelo Bruna
Massimo Mancuso
Agostino Galluzzo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
STMicroelectronics SRL
Original Assignee
STMicroelectronics SRL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by STMicroelectronics SRL filed Critical STMicroelectronics SRL
Publication of DE60008716D1 publication Critical patent/DE60008716D1/de
Application granted granted Critical
Publication of DE60008716T2 publication Critical patent/DE60008716T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Komprimieren digitaler Bilder.
  • Digitale Bilder werden allgemein bei mehreren Anwendungen verwendet, wie beispielsweise bei digitalen Standbildkameras (DSC = digital still cameras). Ein digitales Bild umfaßt eine Matrix von Elementen, die allgemein als eine Bit-Abbildung bezeichnet wird; jedes Element der Matrix, das einen Elementarbereich des Bilds (ein Pixel oder pel) darstellt, ist durch mehrere digitale Werte gebildet, die entsprechende Komponenten des Pixels angeben.
  • Digitale Bilder werden typischerweise einem Komprimierungsvorgang unterzogen, um die Anzahl von digitalen Bildern zu erhöhen, die simultan beispielsweise auf einem Speicher der Kamera gespeichert werden kann; außerdem ermöglicht dies, daß eine Sendung von digitalen Bildern (z. B. im INTERNET) einfacher und weniger zeitaufwendig ist. Ein gewöhnlich bei Standardanwendungen verwendetes Komprimierungsverfahren ist der JPEG-Algorithmus (JPEG = Joint Photographic Experts Group = Verbund der Gruppe photographischer Experten), der in CCITT T.81, 1992 beschrieben ist.
  • Bei dem JPEG-Algorithmus werden 8×8-Pixel-Blöcke aus dem digitalen Bild extrahiert; Diskrete-Cosinus-Transformation(DCT-) Koeffizienten werden dann für die Komponenten jedes Blocks berechnet. Die DCT-Koeffizienten werden unter Verwendung entsprechender Quantisierungstabellen abgerundet; die quantisierten DCT-Koeffizienten werden codiert, um ein komprimiertes digitales Bild zu erhalten (aus dem später durch einen Dekomprimierungsvorgang das entsprechende ursprüngliche digitale Bild extrahiert werden kann).
  • Bei einigen Anwendungen ist es notwendig, ein im wesentlichen konstantes Speichererfordernis für jedes komprimierte digitale Bild bereitzustellen (die sogenannte Komprimierungsfaktorsteuerung (Compression Factor Control) oder CFCTRL). Dieses Problem wird speziell bei digitalen Standbildkameras wahrgenommen; in diesem Fall muß in der Tat sichergestellt sein, daß eine minimale Anzahl von komprimierten digitalen Bildern auf dem Speicher der Kamera gespeichert werden kann, um zu garantieren, daß eine minimale Anzahl von Fotos durch die Kamera aufgenommen werden kann.
  • Die Komprimierungsfaktorsteuerung ist bei Algorithmen, wie beispielsweise dem JPEG, bei denen die Größe des komprimierten digitalen Bilds von dem Inhalt des entsprechenden ursprünglichen digitalen Bilds abhängt, ziemlich schwierig.
  • Allgemein wird der Komprimierungsfaktor durch ein Skalieren der Quantisierungstabellen unter Verwendung eines Multipliziererkoeffizienten (Gewinnfaktor) gesteuert. Der Gewinnfaktor, um einen Zielkomprimierungsfaktor zu erhalten, wird unter Verwendung von iterativen Verfahren bestimmt. Der Komprimierungsvorgang wird mehrere Male ausgeführt, zumindest zweimal; der Gewinnfaktor wird gemäß dem Ergebnis des vorhergehenden Komprimierungsvorgangs modifiziert, bis das komprimierte digitale Bild eine Größe aufweist, die mit dem Zielkomprimierungsfaktor übereinstimmt.
  • Die Veröffentlichung „DCT-Based Still Image Compression ICs With Bit Rate Control" (Masaki Nagakawa et al, IEEE Transactions on Consumer Electronics, US IEE Inc. New York, Bd. 38, Nr. 3, 1. August 1993, Seiten 711–716) offenbart ein Verfahren zum Komprimieren eines digitalen Bilds, das folgende Schritte aufweist: Teilen des digitalen Bilds in eine Mehrzahl von Blöcken, Transformieren aller Blöcke in DCT-Koeffizienten, Berechnen einer Aktivitätsmetrik unter Verwendung aller DCT-transformierten Blöcke zum Bestimmen eines Aktivitäts- (Energie-) Maßes für das digitale Bild. Das Verfahren gemäß der Veröffentlichung von Nagakawa umfaßt ferner einen Schritt eines Berechnens eines Skalierungsfaktors basierend auf dem bestimmten Aktivitätsmaß und einen Schritt eines Quantisierens der DCT-transformierten Blöcke unter Verwendung einer entsprechenden vorgegebenen Quantisierungstabelle, die durch den berechneten Skalierungsfaktor skaliert ist. Außerdem offenbart dieses Dokument eine proportionale Beziehung, die experimentell abgeleitet werden kann, zwischen dem Aktivitätsmaß und dem Skalierungsfaktor.
  • Die EP-A-0 762 775 offenbart ein Verfahren zum Komprimieren eines digitalen Bilds, das folgende Schritte aufweist: Teilen des digitalen Bilds in eine Mehrzahl von Blöcken, Transformieren aller Blöcke in DCT-Koeffizienten, Quantisieren der DCT-Koeffizienten unter Verwendung einer festen Quantisierungstabelle und eines vorbestimmten anfänglichen Quantisierungsfaktors und Berechnen einer Aktivitätsmetrik unter Verwendung der quantisierten DCT-Koeffizienten. Das Verfahren umfaßt ferner einen Schritt eines Berechnens eines neuen Quantisierungsfaktors basierend auf der bestimmten Aktivitätsmetrik.
  • Die auf dem Gebiet bekannten Verfahren erfordern eine lange Berechnungszeit, so daß dieselben ziemlich langsam sind. Außerdem betreffen die bekannten Verfahren einen erheblichen Leistungsverbrauch; dieser Nachteil ist besonders akut, wenn das Komprimierungsverfahren in einer digitalen Standbildkamera oder anderen tragbaren Vorrichtungen implementiert ist, die durch Batterien versorgt werden.
  • Es ist eine Aufgabe der vorliegenden Erfindung, die oben erwähnten Nachteile zu überwinden. Um diese Aufgabe zu lösen, ist ein Verfahren zum Komprimieren eines digitalen Bilds gemäß Anspruch 1 vorgeschlagen.
  • Außerdem stellt die vorliegende Erfindung ferner eine entsprechende Vorrichtung zum Komprimieren eines digitalen Bilds gemäß Anspruch 13 und eine digitale Standbildkamera, die diese Vorrichtung aufweist, gemäß Anspruch 15 bereit.
  • Weitere Merkmale und die Vorteile der Lösung gemäß der vorliegenden Erfindung werden durch die folgende Beschreibung eines bevorzugten Ausführungsbeispiels derselben verdeutlicht, die rein durch eine nicht-einschränkende Angabe mit Bezug auf die beigefügten Figuren gegeben ist, bei denen:
  • 1 ein schematisches Blockdiagramm einer digitalen Standbildkamera ist, bei der das Komprimierungsverfahren der Erfindung verwendet werden kann,
  • 2a und 2b ein Beispiel einer Beziehung Energie/Anzahl von Bits, die erforderlich sind, um Wechselsignalkoeffizienten zu codieren, bzw. ein Beispiel eines Verhältnisses grundlegender Komprimierungsfaktor/Gewinnfaktor zeigen,
  • 3 ein schematisches Blockdiagramm einer Energieeinheit der Kamera ist,
  • 4a–4b ein Flußdiagramm des Komprimierungsverfahrens zeigen,
  • 4c–4d ein Flußdiagramm eines alternativen Ausführungsbeispiels des Komprimierungsverfahrens ist.
  • Insbesondere mit Bezug auf 1 zeigt diese eine digitale Standbildkamera 100 zum Aufnehmen von digitalen Bildern, die reale Szenen darstellen. Ein digitales Bild ist durch eine Matrix mit N Zeilen und M Spalten gebildet (z. B. 640 Zeilen mal 480 Spalten); jedes Element der Matrix umfaßt mehrere digitale Werte (z. B. drei Werte von jeweils acht Bits, zwischen 0 und 255), die jeweilige optische Komponenten eines Pixels darstellen.
  • Die Kamera 100 umfaßt eine Bilderfassungseinheit 105, die durch eine Membran und einen Satz von Linsen zu einem Durchlassen des Lichts, das dem Bild der realen Szene entspricht, auf eine Sensoreinheit (SENS) 110 gebildet ist.
  • Die Sensoreinheit 110 ist typischerweise durch eine ladungsgekoppelte Vorrichtung (CCD = Charge-Coupled Device) gebildet; eine CCD ist eine integrierte Schaltung, die eine Matrix von lichtempfindlichen Zellen umfaßt, von denen jede eine Spannung erzeugt, deren Intensität proportional zu der Belichtung der lichtempfindlichen Zelle ist. Die Spannung, die durch jede lichtempfindliche Zelle erzeugt wird, wird zu einem Analog/Digital-Wandler geliefert, der einen entsprechenden digitalen Wert erzeugt.
  • Um die Anzahl von lichtempfindlichen Zellen zu reduzieren, erfaßt die Sensoreinheit 110 nicht alle Komponenten für jedes Pixel; typischerweise ist lediglich eine lichtempfindliche Zelle für jedes Pixel vorgesehen. Die CCD ist durch ein Farbfilter bedeckt, das eine Matrix von Filterelementen umfaßt, von denen jedes einer entsprechenden lichtempfindlichen Zelle der CCD zugeordnet ist; jedes Filterelement läßt die Lichtstrahlung durch (wobei ein minimaler Abschnitt absorbiert wird), die lediglich zu der Wellenlänge von rotem, blauem oder grünem Licht gehört (wobei im wesentlichen die anderen absorbiert werden), um eine rote Farbkomponente (R), eine grüne Farbkomponente (G) oder eine blaue Farbkomponente (B) für jedes Pixel zu erfassen.
  • Das Filter ist insbesondere von dem Bayer-Typ, wie es in der US-A-3,971,065 beschrieben ist, bei dem lediglich die G-Komponente für eine Hälfte der Pixel in einer schachbrettähnlichen Anordnung erfaßt wird; die R-Komponente oder die B-Komponente wird für die andere Hälfte der Pixel in jeweiligen abwechselnden Zeilen erfaßt, wie es in der folgenden Tabelle gezeigt ist:
    Figure 00050001
  • Ein unvollständiges digitales Bild SImg, bei dem jedes Element eine einzige Farbkomponente (R, G oder B) umfaßt, wird durch die Sensoreinheit 110 ausgegeben.
  • Die Kamera 100 umfaßt eine Steuereinheit 115, die durch mehrere Blöcke gebildet ist, die mit einem Kommunikationsbus 120 parallel geschaltet sind. Insbesondere empfängt eine Vorverarbeitungseinheit (PRE_PROC) 125 das unvollständige digitale Bild SImg. Die Vorverarbeitungseinheit 125 bestimmt verschiedene Parameter des unvollständigen digitalen Bilds SImg (wie beispielsweise einen Hochfrequenzgehalt und eine durchschnittliche Helligkeit); diese Parameter werden verwendet, um einen Fokus (Auto-Fokus) und eine Belichtung (Auto-Belichtung) mittels entsprechenden Steuersignalen Sc automatisch zu steuern, die zu der Erfassungseinheit 105 geliefert werden. Die Vorverarbeitungseinheit 125 modifiziert ferner das unvollständige digitale Bild SImg, wobei z. B. ein Weißabgleich-Algorithmus angewendet wird, der die Farbverschiebung des Lichts zu Rot (rötlich) oder zu Blau (bläulich) hin in Abhängigkeit von der Farbtemperatur der Lichtquelle korrigiert; ein entsprechendes unvollständiges digitales Bild BImg wird durch die Vorverarbeitungseinheit 125 ausgegeben und auf den Bus 120 gesendet.
  • Das unvollständige digitale Bild BImg wird durch eine Bildverarbeitungseinheit (IPU = Image-processing unit) 130 empfangen. Die Bildverarbeitungseinheit 130 interpoliert die fehlenden Farbkomponenten in jedem Element des unvollständigen digitalen Bilds BImg, um ein entsprechendes digitales Bild RGB zu erhalten, bei dem jedes Pixel durch die R-Komponente, die G-Komponente und die B-Komponente dargestellt ist. Das digitale Bild RGB wird dann verarbeitet, um eine Bildqualität zu verbessern, wobei z. B. Belichtungsprobleme, wie beispielsweise eine Hintergrundbeleuchtung oder eine übermäßige Vordergrundbeleuchtung, korrigiert, ein durch die CCD eingebrachtes Rauschen reduziert, Änderungen eines ausgewählten Farbtons korrigiert, spezielle Wirkungen (wie beispielsweise eine Nebelwirkung) angewen det, der Schärfeverlust aufgrund einer γ-Korrekturfunktion (typischerweise durch ein Fernsehgerät angewendet) kompensiert wird; außerdem kann das digitale Bild vergrößert werden, kann eine Einzelheit des Bilds gezoomt werden oder kann das Verhältnis der Abmessungen desselben verändert werden (z. B. von 4:3 zu 16:9) und dergleichen.
  • Das digitale Bild RGB wird dann in ein entsprechendes digitales Bild YUV in einem Luminanz/Chrominanz-Raum umgewandelt. Jedes Pixel des digitalen Bilds YUV ist durch eine Luminanzkomponente Y (die Informationen über die Helligkeit liefert) und zwei Chrominanzkomponenten Cu und CV (die Informationen über den Farbton liefern) dargestellt; die Y,Cu,Cv-Komponenten werden aus den jeweiligen R,G,B-Komponenten z. B. unter Anwendung der folgenden Gleichungen berechnet: Y = 0,299·R + 0,587·G + 0,114·B Cu = –0,1687·R – 0,3313·G + 0,5·B + 128 Cv = 0,5·R – 0,4187·G – 0,0813·B + 128
  • sDies ermöglicht, daß Chrominanzinformationen ohne weiteres identifiziert werden, um während eines folgenden Komprimierungsvorgangs des digitalen Bild mehr Chrominanzinformationen als Luminanzinformationen auszusondern (da das menschliche Auge für eine Luminanz empfindlicher als für eine Chrominanz ist). Das digitale Bild YUV wird auf den Bus 120 gesendet.
  • Es ist ferner eine Komprimierungseinheit 135 mit dem Bus 120 verbunden; die Komprimierungseinheit 135 empfängt das digitale Bild YUV und gibt ein entsprechendes digitales Bild JImg aus, das unter Anwendung eines JPEG-Algorithmus komprimiert ist. Die Komprimierungseinheit 135 umfaßt eine Diskrete-Cosinus-Transformation- (DCT-) Einheit 145, der das digitale Bild YUV eingegeben wird. Jede Komponente des digitalen Bilds YUV wird von dem Bereich 0..255 zu dem Bereich –128..+127 verschoben, um das Ergebnis der Operation zu normieren. Das digitale Bild YUV wird dann in mehrere Blöcke von 8×8 Pixeln geteilt (640×480/64 = 4800 Blöcke bei dem fraglichen Beispiel). Jeder Block von Y-Komponenten BLy, jeder Block von Cu-Komponenten BLu und jeder Block von Cv-Komponenten BLv wird in eine Gruppe von DCT-Koeffizienten DCTy, eine Gruppe von DCT-Koeffizienten DCTu bzw. eine Gruppe von DCT-Koeffizienten DCTv translatiert, die eine räumliche Frequenz der entsprechenden Komponenten darstellen. Die DCT-Koeffizienten DCTy, u, v[h, k] (mit h,k = 0..7) werden unter Verwendung der folgenden Formel berechnet:
    Figure 00080001
    wobei Dh,Dk = 1/√2 für h,k = 0 und andernfalls Dh,Dk = 1. Der erste DCT-Koeffizient jeder Gruppe wird als Gleichsignalkoeffizient bezeichnet und ist proportional zu dem Durchschnitt der Komponenten der Gruppe, während die anderen DCT-Koeffizienten als Wechselsignalkoeffizienten bezeichnet werden.
  • Die Gruppen von DCT-Koeffizienten DCTy, u, v werden direkt zu einem Quantisierer (QUANT) 150 geliefert, der ferner (von dem Bus 120) eine skalierte Quantisierungstabelle für jeden Typ einer Komponente empfängt; typischerweise wird eine skalierte Quantisierungstabelle SQy für die Y-Komponenten verwendet und eine skalierte Quantisierungstabelle SQuv wird für sowohl die Cu-Komponenten als auch die Cv-Komponenten verwendet. Jede skalierte Quantisierungstabelle umfaßt eine 8×8-Matrix von Quantisierungskonstanten; die DCT-Koeffizienten jeder Gruppe werden durch die entsprechenden Quantisierungskonstanten geteilt und zu der nächsten Ganzzahl abgerundet. Folglich verschwinden kleinere und unwichtige DCT-Koeffizienten und größere DCT-Koeffizienten verlieren eine unnötige Genauigkeit. Der Quantisierungsvorgang erzeugt entsprechende Gruppen von quantisierten DCT- Koeffizienten QDCTy für die Y-Komponente, Gruppen von quantisierten DCT-Koeffizienten QDCTu für die Cu-Komponente und Gruppen von quantisierten DCT-Koeffizienten QDCTu für die Cv-Komponente.
  • Diese Werte reduzieren die Menge an Informationen drastisch, die benötigt wird, um das digitale Bild darzustellen. Der JPEG-Algorithmus ist dann ein verlustbehaftetes Komprimierungsverfahren, wobei einige Informationen über das ursprüngliche Bild schließlich während des Komprimierungsvorgangs verloren werden; für das menschliche Auge ist jedoch bei dem entsprechenden dekomprimierten digitalen Bild bei einem Komprimierungsverhältnis zwischen 10:1 und 20:1 (definiert als das Verhältnis zwischen der Anzahl von Bits, die erforderlich ist, um das digitale Bild YUV darzustellen, und der Anzahl von Bits, die erforderlich ist, um das komprimierte digitale Bild JImg darzustellen) gewöhnlich bei einer normalen Vergrößerung keine Bildverschlechterung sichtbar.
  • Jede skalierte Quantisierungstabelle SQy,SQuv wird durch ein Multiplizieren einer entsprechenden Quantisierungstabelle Qy, Quv mit einem Gewinnfaktor G (bestimmt, wie es im folgenden dargelegt ist) erhalten, d. h. SQy = G·Qy und SQuv = G·Quv. Der Gewinnfaktor G wird verwendet, um einen erwünschten Zielkomprimierungsfaktor bpt des JPEG-Algorithmus (definiert als das Verhältnis zwischen der Anzahl von Bits des komprimierten digitalen Bilds JImg und der Anzahl von Pixeln) zu erhalten. Insbesondere falls der Gewinnfaktor G größer als 1 ist, ist der Komprimierungsfaktor reduziert (verglichen mit demselben, der durch die Quantisierungstabellen Qy, Quv geliefert wird), während, falls der Gewinnfaktor G kleiner als 1 ist, der Komprimierungsfaktor erhöht ist.
  • Die Quantisierungstabellen Qy, Quv sind definiert, um mehr Chrominanzinformationen als Luminanzinformationen auszusondern. Zum Beispiel ist die Quantisierungstabelle Qy:
    Figure 00100001
    und die Quantisierungstabelle Quv ist:
    Figure 00100002
  • Vorzugsweise sind die Quantisierungskonstanten für die Gleichsignalkoeffizienten in beiden Fällen gleich 1, um keine Informationen über den mittleren Gehalt jedes Blocks zu verlieren und dann die sogenannte „Blockwirkung" zu vermeiden (wobei ein Kontrast zwischen den Blöcken des dekomprimierten Bilds wahrnehmbar ist).
  • Die Gruppen von quantisierten DCT-Koeffizienten QDCTy, u, v werden direkt zu einer Zickzack-Einheit (ZZ) 155 geliefert. Die Zickzack-Einheit 155 modifiziert und ordnet die quantisierten DCT-Koeffizienten neu, um einen einzigen Vektor ZZ von digitalen Werten zu erhalten. Jeder quantisierte Gleichsignalkoeffizient (außer demselben einer ersten Gruppe) ist als die Differenz von dem quantisierten Gleichsig nalkoeffizient einer vorhergehenden Gruppe dargestellt. Die quantisierten Wechselsignalkoeffizienten sind in einer Zickzack-Reihenfolge angeordnet, so daß quantisierte Wechselsignalkoeffizienten, die niedrige Frequenzen darstellen, zu dem Anfang der Gruppe bewegt werden und quantisierte Wechselsignalkoeffizienten, die hohe Frequenzen darstellen, zu dem Ende der Gruppe bewegt werden; weil die quantisierten Wechselsignalkoeffizienten, die hohe Frequenzen darstellen, wahrscheinlicher Nullen sind, erhöht dies die Wahrscheinlichkeit, längere Sequenzen von Nullen in dem Vektor ZZ zu haben (die eine niedrigere Anzahl von Bits bei einem Lauflängencodierungsschema erfordern).
  • Der Vektor ZZ wird direkt zu einem Codierer (ENC) 160 geliefert, der ferner eine oder mehrere Codierungstabellen HT von dem Bus 120 empfängt. Jeder Wert des Vektors ZZ wird unter Verwendung eines Huffman-Schemas codiert, wobei der Wert durch eine variable Anzahl von Bits dargestellt ist, die umgekehrt proportional zu einer statistischen Frequenz einer Verwendung derselben ist. Der Codierer 160 erzeugt dann das entsprechende komprimierte digitale Bild JImg (das auf den Bus 120 gesendet wird). Das komprimierte digitale Bild JImg ist typischerweise durch einen Kopfblock (z. B. einige 10 Bytes, die Informationen über das digitale Bild und das Komprimierungsverfahren, wie beispielsweise die Quantisierungstabellen und die Abmessung des digitalen Bilds umfassen) gefolgt durch die codierten Werte gebildet. Falls der letzte codierte Wert, der einem Block zugeordnet ist, gleich 00 ist, muß derselbe durch ein (variables) Blockende- (EOB = End of Block) Steuerwort gefolgt sein. Falls außerdem ein codierter Wert gleich einem weiteren Steuerwort FF (als ein Markierer verwendet) ist, muß dieser Wert durch einen 00-Wert gefolgt sein.
  • Die Steuereinheit 115 umfaßt ferner einen Arbeitsspeicher 165, typischerweise einen SDRAM (Synchronous Dynamic Random Access Memory), und einen Mikroprozessor (μP) 170, der den Betrieb der Vorrichtung steuert. Es sind ferner mehrere Pe ripherieeinheiten mit dem Bus 120 (mittels einer jeweiligen Schnittstelle) verbunden. Insbesondere speichert ein nichtflüchtiger Speicher 175, typischerweise ein Flash-E2PROM, die Quantisierungstabellen Qy, Quv, die Codiertabellen HT und ein Steuerprogramm für den Mikroprozessor 170. Eine Speicherkarte (MEM_CARD) 180 wird verwendet, um die komprimierten digitalen Bilder JImg zu speichern; die Speicherkarte 185 weist eine Kapazität von einigen Mbytes auf und kann mehrere 10 komprimierte digitale Bilder JImg speichern. Schließlich umfaßt die Kamera 100 eine Eingang/Ausgang-(I/O-)Einheit 185, die z. B. eine Reihe von Druckknöpfen zu einem Ermöglichen, daß der Benutzer verschiedene Funktionen der Kamera 100 auswählt (wie beispielsweise einen Ein/Aus-Knopf, einen Bildqualität-Auswahlknopf, einen Aufnahmeknopf, einen Zoomsteuerknopf), und eine Flüssigkristallanzeige (LCD = liquid-crystal display) zum Liefern von Daten über den Betriebszustand der Kamera 100 an den Benutzer umfaßt.
  • Ähnliche Erwägungen gelten, falls die Kamera eine unterschiedliche Architektur aufweist oder unterschiedliche Einheiten umfaßt, wie beispielsweise eine äquivalente Kommunikationseinrichtung, einen CMOS-Sensor, einen Sucher oder eine Schnittstelle zu einer Verbindung mit einem Personalcomputer (PC) und einem Fernsehgerät, falls ein anderes Farbfilter (nicht mit einer Bayer-Struktur) verwendet wird, falls die komprimierten digitalen Bilder direkt aus der Kamera gesendet werden (ohne auf der Speicherkarte gespeichert zu werden), usw. Alternativ wird das digitale Bild in einen anderen Raum (nicht einem Luminanz-/Chrominanz-Raum) umgewandelt, wird das digitale Bild RGB direkt komprimiert (ohne konvertiert zu werden), wird das digitale Bild YUV manipuliert, um die Cu,Cv-Komponenten durch ein Zusammenmitteln von Gruppen von Pixeln abwärts abzutasten (um weitere Informationen zu eliminieren, ohne eine Gesamtbildqualität zu opfern), oder es wird keine Entwicklung des digitalen Bilds durchgeführt; auf eine ähnliche Weise werden eine oder mehrere unterschiedliche Quantisierungstabellen verwendet, werden arithmetische Codierschemata verwendet, wird ein unterschiedlicher Komprimierungsalgorithmus verwendet (wie beispielsweise ein progressiver JPEG). Außerdem eignet sich das Komprimierungsverfahren der vorliegenden Erfindung, um sogar in einer unterschiedlichen Vorrichtung implementiert zu werden, wie beispielsweise einem tragbaren Scanner bzw. einer Abtastvorrichtung, einem Computer, bei dem graphische Anwendungen bereitgestellt sind, und dergleichen.
  • Bei der Kamera 100 ist zusätzlich zu der oben beschriebenen bekannten Struktur eine Energieeinheit (ENRG) 190 vorgesehen, die das digitale Bild YUV von dem Bus 120 empfängt. Die Energieeinheit 190 bestimmt (wie es im folgenden detailliert beschrieben ist) ein Energiemaß Ey, Eu und Ev für jeden Typ einer Komponente (Y, Cu bzw. Cv) des digitalen Bilds YUV; in anderen Worten werden Werte bestimmt, die den Hochfrequenzgehalt jedes Komponententyps des digitalen Bilds YUV angeben. Ein Gesamtenergiemaß E = Ey + Eu + Ev wird dann berechnet und auf den Bus 120 gesendet.
  • Die Erfinder haben entdeckt, daß der Gewinnfaktor G zum Erhalten des Zielkomprimierungsfaktors bpt eine Funktion eines oder mehrerer Energiemaße des digitalen Bilds YUV (bei dem fraglichen Beispiel das gesamte Energiemaß E) ist. Die Funktion hängt von dem Zielkomprimierungsfaktor bpt (zusätzlich zu den Charakteristika der Kamera 100, wie beispielsweise der Abmessung der CCD, der Größe des digitalen Bilds, den verwendeten Quantisierungstabellen) ab und kann a priori durch eine statistische Analyse bestimmt werden.
  • Wie es detailliert im folgenden beschrieben ist, umfaßt die vorliegende Erfindung allgemeiner gesagt die Schritte eines Bestimmens zumindest eines Energiemaßes des digitalen Bilds und eines Schätzens des Gewinnfaktors als eine Funktion des zumindest einen Energiemaßes, wobei die Funktion experimentell gemäß dem Zielkomprimierungsfaktor bestimmt ist.
  • Das Verfahren der Erfindung ist sehr schnell, dadurch, daß die durch die Komprimierungseinheit durchgeführten Operationen (d. h. die Komprimierung des digitalen Bilds) lediglich einmal ausgeführt werden.
  • Die Lösung gemäß der vorliegenden Erfindung ist speziell bei tragbaren Vorrichtungen vorteilhaft, die durch Batterien versorgt werden (selbst falls unterschiedliche Anwendungen nicht ausgeschlossen sind), da dieselbe den Leistungsverbrauch drastisch reduziert.
  • Diese Ergebnisse werden mit einem geringen Fehler (von der Größenordnung wenigen Einheiten von Hundert) zwischen dem Zielkomprimierungsfaktor bpt und einem Komprimierungsfaktor bpa, der tatsächlich erhalten wird, erreicht, definiert als (bpt – bpa)/bpt. Experimentelle Ergebnisse an der fraglichen Kamera lieferten einen mittleren Fehler von –0,6% (der negative Fehler ist wichtiger als der positive Fehler, weil die Größe des komprimierten digitalen Bilds größer als die Zielgröße ist), mit einer Verteilung von 68% zwischen ± 6% und 82% zwischen ± 10%.
  • Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird zuerst die Anzahl von Bits ACbits geschätzt, die erforderlich ist, um (bei dem komprimierten digitalen Bild JImg) die Wechselsignalkoeffizienten aller Gruppen zu codieren, die unter Verwendung der Tabellen Qy,Quv quantisiert sind, die durch einen voreingestellten Faktor S (der bestimmt wird, wie es im folgenden dargelegt ist) skaliert sind; die Anzahl ACbits wird als eine Funktion des einen oder der mehreren Energiemaße geschätzt, die a priori durch eine statistische Analyse bestimmt werden.
  • 2a zeigt z. B. eine Beziehung zwischen dem Gesamtenergiemaß E und der Anzahl ACbits für eine Kamera, die eine CCD mit einer Million lichtempfindlichen Zellen aufweist, und für Bilder von 640×480 Pixeln, mit einem Faktor S = 0,2 und einem Zielkomprimierungsfaktor bpt = 2 bit/pel. Diese Beziehung kann als eine lineare Funktion interpoliert werden; in anderen Worten kann die Anzahl ACbits unter Verwendung der Beziehung ACbits = a·E + b geschätzt werden (wobei a und b Parameter sind, die von den Charakteristika der Kamera 100 und dem Zielkomprimierungsfaktor bpt abhängen).
  • Der Gleichsignalkoeffizient DCy, u, v jeder Gruppe ist gleich dem Mittelwert der Komponenten des jeweiligen Blocks BLy, u, v, d. h.:
  • Figure 00150001
  • Die quantisierten Gleichsignalkoeffizienten QDCy, u, v werden durch ein Teilen der Gleichsignalkoeffizienten DCy, u, v durch die entsprechenden Quantisierungskonstanten und ein Abrunden des Ergebnisses auf die nächste Ganzzahl berechnet] bei dem fraglichen Beispiel, bei dem die Quantisierungskonstanten für die Gleichsignalkoeffizienten gleich 1 sind, sind die quantisierten Gleichsignalkoeffizienten QDCy, u, v der ganzzahlige Teil der jeweiligen Gleichsignalkoeffizienten DCy, u, v, d. h. QDCy, u, v = INT[DCy, u, v].
  • Jeder quantisierte Gleichsignalkoeffizient ist in dem Vektor ZZ als die Differenz DiffQDCy,u,v von dem quantisierten Gleichsignalkoeffizienten einer vorhergehenden Gruppe dargestellt; die Anzahl von Bits DiffDCbits, die erforderlich ist, um jeden DiffQDCy, u, v-Wert (bei dem komprimierten digitalen Bild JImg) zu codieren, ist in dem JPEG-Standard durch die folgende Tabelle JTy für die Y-Komponenten definiert:
    DiffQDCy DiffDCbits
    0 2
    –1..+1 4
    –3..–2,+2..+3 5
    –7..–4,+4..+7 6
    –15..-8,+8..+15 7
    –31..–16,+16..+31 8
    –63..–32,+32..+63 10
    –127..–64,+64..+127 12
    –255..–128,+128..+255 14
    –511..–256,+256..+511 16
    –1023..–512,+512..+1023 18
    -2047..–1024,+1024..+2047 20
    und durch die folgende Tabelle JTuv für die Cu,Cv-Komponenten:
    DiffQDCu,v DiffDCbits
    0 2
    –1..+1 3
    –3..–2,+2..+3 4
    –7..–4,+4..+7 6
    –15..–8,+8..+15 8
    –31..–16,+16..+31 10
    –63..–32,+32..+63 12
    –127..–64,+64..+127 14
    –255..–128,+128..+255 16
    –511..–256,+256..+511 18
    –1023..–512,+512..+1023 20
    –2047,..–1024,+1024..+2047 22
  • Die Anzahl von Bits DCbits, die erforderlich ist, um die quantisierten Gleichsignalkoeffizienten aller Gruppen (bei dem komprimierten digitalen Bild JImg) zu komprimieren, wird dann durch ein Summieren der Werte DiffDCbits berechnet.
  • Die Anzahl von Bits HDbits, die erforderlich ist, um den Kopfblock des komprimierten digitalen Bilds JImg darzustellen, ist fest; es wird angenommen, daß die Anzahl von EOB-Steuerwörtern gleich der Anzahl von Blöcken ist, und die Anzahl von Bits CDbits, die erforderlich ist, um die EOB-Steuerwörter darzustellen, wird dann durch die Formel 8·N·M/64 = N·M/8 geschätzt. Die Anzahl von Bits, die durch die Werte 00 erforderlich ist, die den codierten Werten folgen, die gleich dem Markierer FF sind, kann nicht a priori geschätzt werden und dieselbe wird auf einen vorgegebenen Wert, vorzugsweise 0, gesetzt.
  • Daher ist es möglich, einen grundlegenden Komprimierungsfaktor bpb zu schätzen, der unter Verwendung der Quantisierungstabellen Qy, Quv erhalten wird, durch den Faktor S skaliert sind; der grundlegende Komprimierungsfaktor bpb wird geschätzt unter Anwendung der Beziehung bpb = (HDbits + DCbits + ACbits + CTbits)/(N·M).
  • Der Gewinnfaktor G zum Erhalten des Zielkomprimierungsfaktors bpt wird dann als eine Funktion des grundlegenden Komprimierungsfaktors bpb geschätzt, der a priori durch eine statistische Analyse bestimmt wird. 2b zeigt z. B. eine Beziehung zwischen dem grundlegenden Komprimierungsfaktor bpb und dem Gewinnfaktor G zum Erhalten eines Komprimierungsfaktors von 2 bit/pel (für die gleiche Kamera wie oben). Diese Beziehung kann als eine quadratische Funktion interpoliert werden; in anderen Worten kann der Gewinnfaktor G unter Verwendung der Beziehung G = C2·bp 2 / b + C1·bpb + C0 geschätzt werden (wobei C2, C1 und CO Parameter sind, die von den Charakteristika der Kamera 100 und dem Zielkomprimierungsfaktor bpt abhängen).
  • Diese Lösung ist besonders einfach und liefert eine gute Genauigkeit.
  • Die Parameter a, b und die Tabellen JTy, JTuv werden auf den E2PROM 175 gespeichert. Vorzugsweise werden zwei oder mehr Sätze von Parametern C2, C1, C0, von denen jeder einem unterschiedlichen Wert des Tiefkomprimierungsfaktors bpt und einer unterschiedlichen Größe des digitalen Bilds zugeordnet ist, a priori durch eine statistische Analyse bestimmt. Eine Nachschlagtabelle, bei der jede Zeile, die durch den Wert des Zielkomprimierungsfaktors bpt adressierbar ist, die jeweiligen Parameter C2, C1, C0 umfaßt, wird ebenfalls auf den E2PROM 175 gespeichert. Dieses Merkmal ermöglicht, daß unterschiedliche Komprimierungsfaktoren ohne weiteres durch den Benutzer ausgewählt werden.
  • Der Faktor S wird vorteilhafterweise a priori durch eine statistische Analyse bestimmt, um den Fehler zwischen dem Zielkomprimierungsfaktor bpt und dem tatsächlichen Komprimierungsfaktor bpa weiter zu reduzieren. Experimentelle Ergebnisse haben gezeigt, daß der Faktor S, der den Fehler minimiert, ferner von dem Zielkomprimierungsfaktor bpt (zusätzlich zu den Charakteristika der Kamera 100) abhängt.
  • Ähnliche Betrachtungen gelten, falls das komprimierte digitale Bild ein unterschiedliches Format aufweist, falls die Anzahl CTbits und die Anzahl von Bits, die durch die Werte 00 erforderlich ist, die den codierten Werten folgen, die gleich dem Markierer FF sind, auf unterschiedliche Werte (wie beispielsweise einige 10 Bits) gesetzt sind, und dergleichen. Alternativ wird der Gewinnfaktor direkt aus den Energiemaßen geschätzt, die Beziehung ACbits/E und die Beziehung G/bpb werden mit unterschiedlichen Funktionen (wie beispielsweise einer logarithmischen Funktion) interpoliert, die Nachschlagtabelle wird anderswo gespeichert oder eine unterschiedliche Speicherstruktur wird verwendet, lediglich ein Satz von Parametern C2, C1, C0 wird gespeichert, die linearen und die quadratischen Funktionen werden durch eine Software implementiert, der Faktor S wird auf einen konstanten Wert gesetzt, sogar gleich 1 (ungeachtet des Komprimierungsfaktors bpt), und dergleichen.
  • Unter jetziger Betrachtung von 3 umfaßt die Energieeinheit 190 einen Demultiplexer 310 mit einem Eingang und drei Ausgängen; der Demultiplexer 310 empfängt das digitale Bild YUV und überträgt die Komponenten jedes Typs zu einem jeweiligen Ausgang (gemäß einem Auswahlbefehl, der nicht in der Figur gezeigt ist) folglich wird das digitale Bild YUV in ein Luminanzkomponentenbild IMGy, ein Cu-Chrominanzkomponentenbild IMGu und ein Cv-Chrominanzkomponentenbild IMGv geteilt.
  • Die Komponentenbilder IMGy, IMGu und IMGv werden zu einem Puffer (BFR) 315y, 315u bzw. 315v geliefert. Es ist ferner ein Sobel-Filter (SBL) 320y, 320u und 320v für jeden Komponententyp vorgesehen; das Sobel-Filter 320y, 320u, 320v empfängt das Komponentenbild IMGy, IMGu, IMGv direkt von dem Demultiplexer 310 und das Komponentenbild IMGy, IMGu, IMGv, das durch den Puffer 315y, 315u, 315v ausgegeben wird, bei jeweiligen Eingängen. Ein Ausgang jedes Sobel-Filters 320y, 320u und 320v wird zu einem jeweiligen Akkumulator 325y, 325u und 325v geliefert, der das entsprechende Energiemaß Ey, Eu und Ev ausgibt. Die Energiemaße Ey, Eu, Ev werden zu einem Summierknoten 330 geliefert, der das Gesamtenergiemaß E ausgibt.
  • Jedes Sobel-Filter 320y, 320u, 320v berechnet ein horizontales Sobel-Bild SHy, SHu, SHv und ein vertikales Sobel-Bild SVy, SVu, SVv mittels einer Faltung des Komponentenbilds IMGy, IMGu, IMGv mit einer horizontalen Maske Mh und bzw. einer vertikalen Maske Mv. Die horizontale Maske Mh (die verwendet wird, um horizontale Umrisse des Bilds zu erfassen) ist
    Figure 00190001
    und die vertikale Maske Mv (die verwendet wird, um vertikale Umrisse des Bilds zu erfassen) ist
    Figure 00190002
  • In anderen Worten werden jedes Element der horizontalen Sobel-Bilder SHy, u, v[i,j] und jedes Element der vertikalen Sobel-Bilder SVy, u, v[i,j] (mit i = 0..N-1 und j = 0..M-1) durch die folgenden Formeln berechnet:
    Figure 00200001
  • Jedes Sobel-Filter 320y, 320u, 320v berechnet dann ein Gesamt-Sobel-Bild Sy,Su,Sv, das durch die Formel definiert ist. Sy = SHy + α·SVy Su = SHu + SVu Sv = SHv + SVvwobei der Parameter α verwendet wird, um die Asymmetrie der Quantisierungstabelle Uy entlang einer horizontalen Richtung und einer vertikalen Richtung zu kompensieren (z. B. α = 0,6). Der Akkumulator 325y, 325u, 325v summiert diese Werte und setzt das entsprechende Energiemaß Ey, Eu, Ev gleich dieser Summe, in anderen Worten:
    Figure 00200002
  • Der Summierknoten 330 berechnet dann das Gesamtenergiemaß E = Ey + Eu + Ev.
  • Diese Lösung liefert eine gute Genauigkeit, ohne zu viel Berechnungszeit zu erfordern. Die Lösung der vorliegenden Erfindung kann jedoch auch ohne einen jeglichen Kompensationsparameter implementiert sein, unter Verwendung unterschiedlicher Masken, eines unterschiedlichen Verfahrens zum Schätzen der Energiemaße, wie beispielsweise Aktivitätsma ße, Laplace-Filter (oder andere Hochpaßfilter), unter Verwendung mehrerer Energiemaße (wie beispielsweise der Energiemaße Ey, Eu und Ev), und dergleichen.
  • Um den Betrieb der Kamera zu erläutern, wird Bezug auf 4a-4b (zusammen mit 1) genommen. Wenn die Kamera 100 durch den Benutzer (der auf den Ein/Aus-Knopf einwirkt) eingeschaltet wird, betreibt der Mikroprozessor 170 das Steuerprogramm, das in dem E2PROM 175 gespeichert ist. Ein Verfahren 400, das diesem Steuerprogramm entspricht, beginnt bei einem Block 405 und geht dann zu einem Block 410 über, wobei der Benutzer die erwünschte Qualität des Bilds (wie beispielsweise niedrig oder hoch) durch ein Einwirken auf den entsprechenden Knopf auswählt; der Mikroprozessor 170 bestimmt den Zielkomprimierungsfaktor bpt, der der ausgewählten Bildqualität entspricht (z. B. 1 bit/pel für die niedrige Qualität und 2 bit/pel für die hohe Qualität), und speichert denselben auf den SDRAM 165.
  • Bei einem Block 415 überprüft das Verfahren, ob der Aufnahme-Knopf teilweise gedrückt wurde, um das Bild zu fokussieren; falls nicht, kehrt das Verfahren zu dem Block 410 zurück; sobald der Benutzer den Aufnahme-Knopf teilweise drückt, geht das Verfahren zu einem Block 420 über, wobei das unvollständige digitale Bild SImg durch die Sensoreinheit 110 erfaßt wird (die Membran ist immer offen und das Licht wird durch die Linsen durch das Bayer-Filter auf die CCD fokussiert). Die Vorverarbeitungseinheit 125 steuert dann die Erfassungseinheit 115 (mittels der Steuersignale Sc) gemäß dem Inhalt des unvollständigen digitalen Bilds SImg.
  • Das Verfahren prüft bei einem Block 425 erneut den Status des Aufnahme-Knopfs. Falls der Aufnahme-Knopf freigegeben wurde, kehrt das Verfahren zu dem Block 410 zurück, während, falls der Aufnahme-Knopf vollständig gedrückt wurde (um ein Photo aufzunehmen), das Verfahren zu einem Block 430 übergeht; falls jedoch durch den Benutzer keine Hand lung durchgeführt wird, bleibt das Verfahren bei dem Block 425 in einer Leerlaufschleife.
  • Unter jetziger Betrachtung des Blocks 430 wird das unvollständige digitale Bild SImg durch die Sensoreinheit 110 erfaßt und durch die Vorverarbeitungseinheit 125 modifiziert; das entsprechende unvollständige digitale Bild BImg wird auf den SDRAM 165 gespeichert. Das Verfahren geht dann zu einem Block 435 über, wobei das unvollständige digitale Bild BImg von dem SDRAM 165 gelesen wird und zu der Bildverarbeitungseinheit 130 geliefert wird. Die Bildverarbeitungseinheit 130 interpoliert die fehlenden Farbkomponenten in jedem Element des unvollständigen digitalen Bilds BImg, um das entsprechende digitale Bild RGB zu erhalten, und modifiziert das digitale Bild RGB, um die Bildqualität zu verbessern. Das digitale Bild RGB wird dann in das entsprechende digitale Bild YUV umgewandelt, das auf den Bus 120 gesendet wird.
  • An diesem Punkt gabelt sich das Verfahren in zwei Zweige, die gleichzeitig ausgeführt werden. Ein erster Zweig umfaßt einen Block 438 und ein zweiter Block umfaßt Blöcke 440–450; die zwei Zweige verbinden sich bei einem Block 455 (im folgenden beschrieben).
  • Unter jetziger Betrachtung des Blocks 438 wird das digitale Bild YUV auf den SDRAM 165 gespeichert. Zu der gleichen Zeit wird auch das digitale Bild YUV durch die Energieeinheit 190 bei dem Block 440 empfangen; die Energieeinheit 190 schätzt das Gesamtenergiemaß E, das auf den Bus 120 gesendet wird. Das Verfahren geht zu einem Block 441 über, wobei der Mikroprozessor 170 das Gesamtenergiemaß E empfängt und die Anzahl ACbits (die erforderlich ist, um die Wechselsignalkoeffizienten zu codieren) unter Verwendung der Parameter a, b schätzt, die von dem E2PROM 175 gelesen werden. Zu einem Block 442 übergehend berechnet der Mikroprozessor 170 die Anzahl DCbits, (die erforderlich ist, um die Gleichsignalkoeffizienten zu codieren) unter Verwendung der Tabellen JTy, JTuv, die aus dem E2PROM 175 der Tabellen JTy, JTuv, die aus dem E2PROM 175 gelesen werden. Das Verfahren geht zu einem Block 443 über, wobei der Mikroprozessor 170 die Anzahl HDbits (die erforderlich ist, um den Kopfblock des komprimierten digitalen Bilds JImg darzustellen) und die Anzahl CTbits (die erforderlich ist, um die EOB-Steuerwörter darzustellen) berechnet. Der Mikroprozessor 170 berechnet dann bei einem Block 445 den grundlegenden Komprimierungsfaktor bpb, wobei die Summe der Anzahlen ACbits, DCbits, HDbits und CTbits durch die Anzahl von Pixeln des digitalen Bilds YUV (N·M) geteilt wird. Nun zu dem Block 450 übergehend liest der Mikroprozessor 170 die Parameter C2, C1, C0, die dem Zielkomprimierungsfaktor bpt zugeordnet sind, von dem E2PROM 175 (wobei die Nachschlagtabelle durch den Wert des Zielkomprimierungsfaktors bpt adressiert wird); der Mikroprozessor 170 schätzt dann den Gewinnfaktor G zu einem Erhalten des Zielkomprimierungsfaktors bpt unter Verwendung der gelesenen Parameter C2, C1, C0.
  • Schließlich geht das Verfahren zu dem Block 455 über, wobei das digitale Bild YUV von dem SDRAM 185 gelesen wird und zu der DCT-Einheit 140 geliefert wird, die die Gruppen von DCT-Koeffizienten DCTy, u, v berechnet. Zu einem Block 460 übergehend liest der Mikroprozessor 170 die Quantisierungstabellen Qy, Quv von dem E2PROM 175 und berechnet die skalierten Quantisierungstabellen SQy, SQuv, wobei die jeweiligen Quantisierungstabellen Qy, Quv mit dem Gewinnfaktor G multipliziert werden. Zu einem Block 465 übergehend werden die Gruppen von DCT-Koeffizienten DCTy, u, v und die skalierten Quantisierungstabellen SQy, SQuv zu dem Quantisierer 150 geliefert, der die entsprechenden Gruppen von quantisierten DCT-Koeffizienten QDCTy, u, v erzeugt. Das Verfahren geht zu einem Block 470 über, wobei die quantisierten DCT-Koeffizienten QDCTy, u, v durch die Zickzack-Einheit 155 in den Vektor ZZ transformiert werden. Der Vektor ZZ wird bei einem Block 475 zu dem Codierer 160 geliefert, der das entsprechende komprimierte digitale Bild JImg erzeugt; das komprimierte digitale Bild JImg wird dann auf den SDRAM 165 gespeichert. Zu einem Block 480 übergehend wird das komprimierte digitale Bild JImg von dem SDRAM 165 gelesen und zu der Speicherkarte 180 gesendet.
  • Das Verfahren überprüft bei einem Block 485, ob eine Stop-Bedingung aufgetreten ist, z. B. falls der Benutzer die Kamera 100 (durch Einwirken auf den Ein/Aus-Knopf) ausgeschaltet hat oder falls die Speicherkarte 180 voll ist. Falls nicht kehrt das Verfahren zu dem Block 410 zurück; andernfalls endet das Verfahren bei einem Block 490.
  • Das bevorzugte Ausführungsbeispiel der vorliegenden Erfindung, das oben beschrieben ist, mit der Energiemaßfunktion, die in einer Hardware implementiert ist, und der Grundlegender-Komprimierungsfaktor- und Gewinnfaktor-Schätzfunktion, die in einer Software implementiert ist, ist ein guter Kompromiß zwischen Geschwindigkeit und Flexibilität.
  • Ähnliche Betrachtungen gelten, falls das Programm ein unterschiedliches äquivalentes Verfahren ausführt, z. B. mit Fehlerroutinen, mit sequentiellen Prozessen und dergleichen. Auf jeden Fall eignet sich das Verfahren der vorliegenden Erfindung, um ausgeführt zu werden, selbst wenn alle Funktionen vollständig in einer Hardware oder in einer Software implementiert sind.
  • Bei einem alternativen Ausführungsbeispiel der vorliegenden Erfindung, wie es in 4c–4d (zusammen mit 1) gezeigt ist, führt der Mikroprozessor 170 ein Verfahren 400a aus, das bei einem Block 405 beginnt und dann bis zu dem Block 430 geht, wie es oben beschrieben ist.
  • In diesem Fall jedoch geht das Verfahren sequentiell zu Blöcken 435 über (wobei das digitale Bild YUV, das durch die Bildverarbeitungseinheit 130 geliefert wird, auf den Bus 120 gesendet wird). Das Verfahren führt dann die durch die Blöcke 940–450 definierten Operationen aus (wobei die Energieeinheit 190 das Gesamtenergiemaß E schätzt und der Mikroprozessor 170 die Anzahl ACbits schätzt, die Anzahl DCbits berechnet, die Anzahlen HDbits und CTbits berechnet, den grundlegenden Komprimierungsfaktor bpb berechnet und den Gewinnfaktor G schätzt).
  • An diesem Punkt geht das Verfahren zu einem Block 435a über, wobei das unvollständige digitale Bild BImg wieder von dem SDRAM 165 gelesen wird und durch die Bildverarbeitungseinheit 130 verarbeitet wird, um das digitale Bild YUV zu erhalten, das auf den Bus 120 (bei dem Block 435) gesendet wird. Das Verfahren geht dann zu dem Block 455 über und geht wie bei dem in 4a–4b gezeigten Verfahren weiter.
  • Die oben beschriebene Lösung liefert den Vorteil, daß es niemals erforderlich ist, das digitale Bild YUV auf den SDRAM 165 zu speichern; dieses Ergebnis wird mit dem Kompromiß eines zweimaligen Verarbeitens des unvollständigen digitalen Bilds BImg (durch die Bildverarbeitungseinheit 130) erhalten. Bei vielen Strukturen sind jedoch die Zeit und der Leistungsverbrauch, die zu einem Speichern und Lesen des digitalen Bilds YUV erforderlich sind, höher als dieselben, die zu einem Verarbeiten des unvollständigen digitalen Bilds BImg erforderlich sind. Außerdem ist die oben beschriebene Lösung insbesondere vorteilhaft, wenn es Speicherbeschränkungen bei der Kamera gibt.
  • Um lokalen und spezifischen Erfordernissen zu genügen, kann natürlich ein Fachmann auf dem Gebiet auf die oben beschriebene Lösung viele Modifikationen und Änderungen anwenden, die jedoch alle in dem Schutzbereich der Erfindung enthalten sind, wie derselbe durch die folgenden Ansprüche definiert ist.

Claims (15)

  1. Ein Verfahren (400) zum Komprimieren eines digitalen Bilds, das eine Matrix von Elementen umfaßt, von denen jedes eine Mehrzahl von digitalen Komponenten eines unterschiedlichen Typs umfaßt, die ein Pixel darstellen, wobei das Verfahren folgende Schritte aufweist: Bestimmen (440) zumindest eines Energiemaßes des digitalen Bilds, Schätzen (441–450) eines Gewinnfaktors als eine Funktion des zumindest einen Energiemaßes, wobei die Funktion experimentell gemäß einem Zielkomprimierungsfaktor bestimmt wird, Teilen (455) des digitalen Bilds in eine Mehrzahl von Blöcken und Berechnen einer Gruppe von DCT-Koeffizienten für die Komponenten jedes Typs für jeden Block, Quantisieren (460–465) der DCT-Koeffizienten jedes Blocks unter Verwendung einer entsprechenden Quantisierungstabelle, die durch den Gewinnfaktor zu einem Erreichen des Zielkomprimierungsfaktors skaliert ist, dadurch gekennzeichnet, daß der Schritt des Bestimmens des Energiemaßes einen Schritt eines Empfangens der digitalen Komponenten und eines Berechnens des Maßes unter Verwendung der digitalen Komponenten umfaßt.
  2. Das Verfahren (400) gemäß Anspruch 1, bei dem jede Gruppe von DCT-Koeffizienten einen Gleichsignalkoeffizienten und eine Mehrzahl von Wechselsignalkoeffizienten umfaßt, wobei der Schritt (441–450) des Schätzens des Gewinnfaktors folgende Schritte umfaßt: Schätzen (441) einer ersten Anzahl von Bits, die erforderlich sind, um die Wechselsignalkoeffizienten aller Blöcke unter Verwendung der Quantisierungstabellen, die durch einen voreingestellten Faktor skaliert sind, als eine erste Funktion des zumindest einen Energiemaßes zu codieren, wobei die erste Funktion experimentell gemäß dem Zielkomprimierungsfaktor bestimmt wird, Berechnen (442) einer zweiten Anzahl von Bits, die erforderlich ist, um die Gleichsignalkoeffizienten aller Blöcke unter Verwendung der Quantisierungstabellen zu codieren, die durch den voreingestellten Faktor skaliert sind, Schätzen (443–445) eines grundlegenden Komprimierungsfaktors, der durch die Quantisierungstabellen bereitgestellt ist, die durch den voreingestellten Faktor skaliert sind, gemäß der ersten Anzahl von Bits und der zweiten Anzahl von Bits, und Schätzen (450) des Gewinnfaktors als eine zweite Funktion des grundlegenden Komprimierungsfaktors, wobei die zweite Funktion experimentell gemäß dem Zielkomprimierungsfaktor bestimmt wird.
  3. Das Verfahren (400) gemäß Anspruch 2, bei dem die erste Funktion eine lineare Funktion ist und die zweite Funktion eine quadratische Funktion ist.
  4. Das Verfahren (400) gemäß Anspruch 2 oder 3, bei dem der Schritt des Schätzens (443–445) des grundlegenden Komprimierungsfaktors folgende Schritte umfaßt: Schätzen (443) einer dritten Anzahl von Bits, die erforderlich ist, um Steuerwerte zu codieren, gemäß der Anzahl von Elementen des digitalen Bilds, Berechnen (445) des grundlegenden Komprimierungsfaktors durch ein Dividieren der Summe der ersten, der zweiten und der dritten Anzahl von Bits durch die Anzahl von Elementen des digitalen Bilds.
  5. Das Verfahren (400) gemäß einem der Ansprüche 2 bis 4, das ferner folgende Schritte aufweist: Speichern einer Mehrzahl von Sätzen von Parametern, die die zweite Funktion darstellen, wobei jeder Satz von Parametern einem entsprechenden Wert des Zielkomprimierungsfaktors zugeordnet ist, Auswählen (410) einer Bildqualität und Bestimmen eines aktuellen Werts des Zielkomprimierungsfaktors als eine Funktion der ausgewählten Bildqualität, Lesen (450) der Parameter, die dem aktuellen Wert des Zielkomprimierungsfaktors zugeordnet sind, und Schätzen des Gewinnfaktors unter Verwendung der gelesenen Parameter.
  6. Das Verfahren (400) gemäß einem der Ansprüche 2 bis 5, bei dem der voreingestellte Faktor experimentell gemäß dem Zielkomprimierungsfaktor bestimmt wird.
  7. Das Verfahren (400) gemäß einem der Ansprüche 1 bis 6, bei dem jedes Element des digitalen Bilds eine Luminanzkomponente, eine erste Chrominanzkomponente und eine zweite Chrominanzkomponente umfaßt.
  8. Verfahren (400) gemäß Anspruch 7, bei dem das zumindest eine Energiemaß ein Gesamtenergiemaß gleich der Summe eines Energiemaßes der Luminanzkomponenten, eines Energiemaßes der ersten Chrominanzkomponenten und eines Energiemaßes der zweiten Chrominanzkomponenten umfaßt.
  9. Das Verfahren (400) gemäß Anspruch 7 oder 8, bei dem der Schritt (440) des Bestimmens des zumindest einen Energiemaßes für jeden Komponententyp folgende Schritte aufweist: Berechnen eines horizontalen Sobel-Bilds und eines vertikalen Sobel-Bilds mittels einer Faltung der Elemente des digitalen Bilds, das den Komponententyp umfaßt, mit einer horizontalen Maske bzw. einer vertikalen Maske, Berechnen eines Gesamt-Sobel-Bilds durch ein Summieren des horizontalen Sobel-Bilds und des vertikalen Sobel-Bilds, und Summieren des absoluten Werts jedes Elements des Gesamt-Sobel-Bilds.
  10. Das Verfahren (400) gemäß Anspruch 9, bei dem zumindest eine Quantisierungstabelle entlang einer Horizontalrichtung und einer Vertikalrichtung asymmetrisch ist, wobei das Verfahren ferner folgende Schritte aufweist: Multiplizieren des Sobel-Bilds, das der zumindest einen Quantisierungstabelle zugeordnet ist, mit einem Korrekturfaktor zu einem Kompensieren der Asymmetrie der entsprechenden Quantisierungstabelle.
  11. Das Verfahren (400) gemäß einem der Ansprüche 1 bis 10, das ferner folgende Schritte aufweist: Bereitstellen (410–430) eines unvollständigen digitalen Bilds, bei dem zumindest eine Komponente bei jedem Element fehlt, Erhalten (435) des digitalen Bilds aus dem unvollständigen digitalen Bild, Speichern (438) des digitalen Bilds auf einen Arbeitsspeicher und gleichzeitiges Durchführen der Schritte des Bestimmens (440) des zumindest einen Energiemaßes und des Schätzens (441–450) des Gewinnfaktors, Lesen (455–465) des digitalen Bilds aus dem Arbeitsspeicher zu einem Durchführen der Schritte des Teilens (455) des digitalen Bilds und des Quantisierens (460465) der DCT-Koeffizienten.
  12. Das Verfahren (400a) gemäß einem der Ansprüche 1 bis 10, das ferner folgende Schritte aufweist: Bereitstellen (410–430) eines unvollständigen digitalen Bilds, bei dem zumindest eine Komponente bei jedem Element fehlt, Erhalten (435) des digitalen Bilds aus dem unvollständigen digitalen Bild zu einem Durchführen der Schritte des Bestimmens (440) des zumindest einen Energiemaßes und des Schätzens (441–450) des Gewinnfaktors, Erhalten (435a) des digitalen Bilds aus dem unvollständigen digitalen Bild erneut zum Durchführen der Schritte des Teilens (455) des digitalen Bilds und des Quantisierens (460–465) der DCT-Koeffizienten.
  13. Eine Vorrichtung (115) zum Komprimieren eines digitalen Bilds, das eine Matrix von Elementen umfaßt, von denen jedes eine Mehrzahl von digitalen Komponenten eines unterschiedlichen Typs umfaßt, die ein Pixel darstellen, wobei die Vorrichtung (115) eine Einrichtung (190) zum Bestimmen zumindest eines Energiemaßes des digitalen Bilds und eine Einrichtung (170) zum Schätzen eines Gewinnfaktors als eine Funktion des zumindest einen Energiemaßes, wobei die Funktion experimentell gemäß einem Zielkomprimierungsfaktor bestimmt wird, eine Einrichtung (145) zum Teilen des digitalen Bilds in eine Mehrzahl von Blöcken und zu einem Berechnen einer Gruppe von DCT-Koeffizienten für die Komponenten jedes Typs für jeden Block, eine Einrichtung (150) zum Quantisieren der DCT-Koeffizienten jedes Blocks unter Verwendung einer entsprechenden Quantisierungstabelle aufweist, die durch den Gewinnfaktor skaliert ist, zum Erreichen des Zielkomprimierungsfaktors, dadurch gekennzeichnet, daß die Einrichtung zum Bestimmen des Energiemaßes eine Einrichtung zum Empfangen der digitalen Komponenten und eine Einrichtung zum Berechnen des Maßes unter Verwendung der digitalen Komponenten umfaßt.
  14. Die Vorrichtung (115) gemäß Anspruch 13, die ferner eine Komprimierungseinheit (135), die die Einrichtung (145) zum Teilen des digitalen Bilds und zum Berechnen der DCT-Koeffizienten und die Einrichtung (150) zum Quantisieren der DCT-Koeffizienten aufweist, eine Speichereinheit (175) zum Speichern der Quantisierungstabellen, eine Energieeinheit (190), die die Einrichtung zum Bestimmen des zumindest einen Energiemaßes umfaßt, eine Prozessoreinheit (170) zum Steuern der Vorrichtung (115), eine Kommunikationseinrichtung (120) zum Schalten der Komprimierungseinheit, der Speichereinheit, der Energieeinheit und der Prozessoreinheit zwischen dieselben aufweist, wobei die Prozessoreinheit (170) den Gewinnfaktor unter der Steuerung eines Programms schätzt, das auf die Speichereinheit (175) gespeichert ist.
  15. Eine digitale Standbildkamera (100), die eine Einrichtung (105–130) zum Bereitstellen des digitalen Bilds und die Vorrichtung (115) gemäß Anspruch 13 oder 14 aufweist.
DE60008716T 2000-07-10 2000-07-10 Verfahren zur Kompression digitaler Bilder Expired - Lifetime DE60008716T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP00202436A EP1173024B1 (de) 2000-07-10 2000-07-10 Verfahren zur Kompression digitaler Bilder

Publications (2)

Publication Number Publication Date
DE60008716D1 DE60008716D1 (de) 2004-04-08
DE60008716T2 true DE60008716T2 (de) 2005-02-10

Family

ID=8171773

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60008716T Expired - Lifetime DE60008716T2 (de) 2000-07-10 2000-07-10 Verfahren zur Kompression digitaler Bilder

Country Status (3)

Country Link
US (1) US7024044B2 (de)
EP (1) EP1173024B1 (de)
DE (1) DE60008716T2 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7711044B1 (en) * 2001-10-29 2010-05-04 Trident Microsystems (Far East) Ltd. Noise reduction systems and methods
JPWO2005002206A1 (ja) * 2003-06-25 2006-08-10 ノキア コーポレイション 画像データの圧縮パラメータの値を制御するデジタル撮影装置、及び画像データの圧縮パラメータ値決定方法
WO2005091067A2 (en) * 2004-03-15 2005-09-29 1... Limited Camera autofocus
DE602004010509D1 (de) * 2004-09-03 2008-01-17 St Microelectronics Srl System und Verfahren zur Bildkodierung und zugehöriges Rechnerprogrammprodukt
KR100645636B1 (ko) * 2004-12-09 2006-11-15 삼성전기주식회사 Dct 계수를 이용한 카메라의 자동초점조절장치 및 그방법
AU2006246497B2 (en) * 2006-11-30 2010-02-11 Canon Kabushiki Kaisha Method and apparatus for hybrid image compression
US11871036B2 (en) * 2020-09-24 2024-01-09 Korea University Research And Business Foundation Apparatus and method for compressing JPEG images
CN116405663A (zh) * 2022-03-29 2023-07-07 杭州海康威视数字技术股份有限公司 图像编解码方法、装置、电子设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5051840A (en) * 1988-12-14 1991-09-24 Fuji Photo Film Co., Ltd. Device for coding a picture signal by compression
US5146324A (en) * 1990-07-31 1992-09-08 Ampex Corporation Data compression using a feedforward quantization estimator
JP2670201B2 (ja) * 1991-08-30 1997-10-29 富士写真フイルム株式会社 画像データ圧縮符号化装置および方法
US5434623A (en) * 1991-12-20 1995-07-18 Ampex Corporation Method and apparatus for image data compression using combined luminance/chrominance coding
KR0141824B1 (ko) * 1991-12-23 1998-07-15 구자홍 가변길이의 적응 영상 압축 방법 및 장치
EP1006731B1 (de) * 1993-03-29 2007-06-13 Canon Kabushiki Kaisha Verfahren zur Kontrolle der Datenmenge und Kodierer zur Durchführung derselben
US5677689A (en) * 1995-08-31 1997-10-14 Yovanof; Gregory S. Fixed rate JPEG compliant still image compression
JP3448462B2 (ja) * 1997-06-25 2003-09-22 三洋電機株式会社 画像データ圧縮装置
US6154493A (en) * 1998-05-21 2000-11-28 Intel Corporation Compression of color images based on a 2-dimensional discrete wavelet transform yielding a perceptually lossless image

Also Published As

Publication number Publication date
DE60008716D1 (de) 2004-04-08
EP1173024B1 (de) 2004-03-03
US20020041716A1 (en) 2002-04-11
US7024044B2 (en) 2006-04-04
EP1173024A1 (de) 2002-01-16

Similar Documents

Publication Publication Date Title
DE69919641T2 (de) Adaptive Videokompromierung mit variabler Quantisierung
DE4034535C2 (de) Vorrichtung und Verfahren zur Codierung von Bilddaten, sowie hiermit ausgestattete elektronische Stehbildkamera
DE69424591T2 (de) Verfahren zur Kontrolle der Datenmenge und Kodierer zur Durchführung desselben.
DE69131259T2 (de) Bildkodierungsmethode und -gerät
DE69434862T2 (de) Segmentierungs-basiertes entfernen von artefakten aus einem jpeg-bild
DE60003070T2 (de) Adaptive bewegungsvektorfeldkodierung
DE19983253B4 (de) Die Kompression von Farbbildern auf der Grundlage einer zweidimensionalen diskreten Wavelet-Transformation, die ein scheinbar verlustloses Bild hervorbringt
DE3629403C2 (de) Verfahren zur Korrektur der Farbsättigung bei der elektronischen Bildverarbeitung
DE69433272T2 (de) Vorrichtung zum Vermeiden von Rundungsfehlern bei der inversen Transformation von Transformationskoeffizienten eines Bewegtbildsignales
DE69415887T2 (de) Verbesserter Dekompressionstandard für ADCT-komprimierte Bilddokumente
DE69620963T2 (de) Verfahren und Vorrichtung zur Bilddatenkomprimierung
DE3884802T3 (de) Verfahren und vorrichtung zur adaptiven blocktransformationscodierung von bildern.
DE69120661T2 (de) Bildkompression mit farbinterpolation für ein bildaufnahmesystem mit nur einem bildaufnehmer
DE69324743T2 (de) Vorrichtung und Verfahren zur Bildsignalkodierung
DE60114651T2 (de) Verfahren zur Kompression von im Farbfilteranordnungsformat (CFA) aufgenommenen digitalen Bildern
DE19919600B4 (de) Einrichtung und Verfahren zum Komprimieren von Bilddaten, die von einem Bildsensor empfangen werden, der ein Bayer-Muster aufweist
DE69826928T2 (de) Kompression eines Mosaikbildes
DE69325771T2 (de) Bildsignalkodierung
DE4041312C2 (de) Elektronische Kameravorrichtung zum Liefern eines Bildsignales mit einem weiten Dynamikbereich
US7672528B2 (en) Method of processing an image to form an image pyramid
DE3629469A1 (de) Verfahren zur einstellung der farbsaettigung bei der elektronischen bildverarbeitung
DE60119904T2 (de) Vorrichtung und Verfahren zur Entfernung des Mosaikeffekts in Rohbilddaten im Hinblick auf die Datenkompression
DE60008716T2 (de) Verfahren zur Kompression digitaler Bilder
DE69518788T2 (de) Bildverarbeitungsvorrichtung und -verfahren
DE69610595T2 (de) Kontrollverfahren der Codemenge für kodierte Bilder

Legal Events

Date Code Title Description
8364 No opposition during term of opposition