DE3686505T2 - Verfahren und system zur zerlegung von ntsc-farbvideosignalen. - Google Patents

Verfahren und system zur zerlegung von ntsc-farbvideosignalen.

Info

Publication number
DE3686505T2
DE3686505T2 DE8686103741T DE3686505T DE3686505T2 DE 3686505 T2 DE3686505 T2 DE 3686505T2 DE 8686103741 T DE8686103741 T DE 8686103741T DE 3686505 T DE3686505 T DE 3686505T DE 3686505 T2 DE3686505 T2 DE 3686505T2
Authority
DE
Germany
Prior art keywords
values
pixel
phase
image
chrominance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE8686103741T
Other languages
English (en)
Other versions
DE3686505D1 (de
Inventor
Charles Anthony Kunzinger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Application granted granted Critical
Publication of DE3686505D1 publication Critical patent/DE3686505D1/de
Publication of DE3686505T2 publication Critical patent/DE3686505T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • H04N9/78Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase for separating the brightness signal or the chrominance signal from the colour television signal, e.g. using comb filter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/06Transmission systems characterised by the manner in which the individual colour picture signal components are combined
    • H04N11/12Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only
    • H04N11/14Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only in which one signal, modulated in phase and amplitude, conveys colour information and a second signal conveys brightness information, e.g. NTSC-system

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Color Television Systems (AREA)

Description

  • Die vorliegende Erfindung betrifft die Bildverarbeitung und insbesondere ein Verfahren und ein System zur Zerlegung von NTSC- Farbvideosignalen in deren Y-I-Q-Komponenten, um die Komprimierung aufeinanderfolgender Daten zu erleichtern.
  • Weil die Reisekosten steigen und die Zeit während einer Reise selten produktiv genutzt werden kann, besteht ein zunehmendes Interesse am Einsatz von Telekonferenzen als Alternative zu geschäftlichen Besprechungen vor Ort zwischen Mitarbeitern von verschiedenen Firmenstandorten. In einem typischen System für Telekonferenzen treffen sich Teilnehmer in verschiedenen Städten oder sogar verschiedenen Ländern in speziellen Telekonferenzräumen ihrer jeweiligen Firmenstandorte. Jeder Raum verfügt normalerweise über eine Raumkamera zur Aufnahme einer Weitwinkelsicht der Teilnehmer, eine Dokumentenkamera, die auf Briefe, Zeichnungen oder andere Dokumente eingestellt werden kann, einen Raummonitor, damit die Teilnehmer in einem Raum diejenigen in dem anderen Raum sehen können und einen Dokumentenmonitor zur Ansicht von Dokumenten, die in dem anderen Raum präsentiert werden. Die Datenfernübertragung zwischen den beiden Räumen erfolgt über herkömmliche Datenfernübertragungsverbindungen wie gemietete oder geschaltete Telefonleitungen oder Satellitenkommunikationskanäle.
  • Es gibt ein großes Interesse am Einsatz von Farbvideoverfahren in Telekonferenzsystemen, weil Informationen, die in Form eines Farbbildes präsentiert werden, im allgemeinen besser verstanden sind als die gleichen Informationen in Form eines monochromen Bildes oder eines Graustufenbildes.
  • Selbstverständlich können herkömmliche Videoeinrichtungen und Übertragungsverfahren verwendet werden, um eine Telekonferenz mit bewegten Bildern zu ermöglichen; bei dieser Art von Telekonferenz können die Teilnehmer in dem einem Raum diejenigen in dem anderen Raum während der Konferenz auch in Bewegung sehen. Die Kosten der Datenfernübertragung für herkömmliche Telekonferenzen mit bewegten Bildern sind insbesondere bei Verwendung von Farbvideo hoch. Eine erhebliche Menge an Daten muß mit hohen Übertragungsraten übertragen werden, wodurch die Verwendung eines Übertragungsmediums mit einer großen Bandbreite notwendig wird. Die Kosten der Datenfernübertragung sind im allgemeinen proportional zur Bandbreite. Daher läuft die Forderung nach einer großen Bandbreite einem der Hauptgründe für den Einsatz von Telekonferenzen zuwider, nämlich der Kostensenkung geschäftlicher Besprechungen.
  • Um die Kosten für die Datenfernübertragung zu reduzieren, können Standbild-Telekonferenzverfahren verwendet werden. Das von einer Raumkamera gelieferte Videobild wird nur in festen Intervallen oder auf Befehl eines Operators periodisch aktualisiert. Die Teilnehmer am Empfänger sehen zwischen den Aktualisierungen dasselbe "gefrorene" Raumbild. Audiosignale werden auf Echtzeitbasis übertragen, so daß keine wahrnehmbare Verzögerung in der Sprachübertragung erfolgt. Dokumentenbilder werden nur aktualisiert, wenn der Teilnehmer, der ein Dokument präsentiert, im Telekonferenzraum einen "Sende"-Knopf drückt.
  • Es gibt zwei grundlegende Arten, den Bandbreitenbedarf in einem Telekonferenzsystem zu reduzieren. Zum einen kann die Datenmenge, die zur Erzeugung eines akzeptablen Bildes am Empfangsort gesendet werden muß, verringert werden. Zum anderen kann eine geringere Bandbreite verwendet werden, wobei es einfach länger dauert, die zur Erzeugung eines akzeptablen Bildes am Empfangsort erforderlichen Daten zu übertragen.
  • Die für die Übertragung benötigter Bilddaten erforderliche Zeit ist in jedem Standbild-Telekonferenzsystem von Bedeutung, da diese die Frequenz bestimmt, mit der Bilder im Verlauf einer Telekonferenz aktualisiert werden können. Falls die Konferenzteilnehmer untätig auf ein erwartetes Videobild warten müssen, was als ein unnötig hoher Zeitaufwand angesehen wird, werden sie wahrscheinlich verärgert reagieren, wodurch die Effizienz der Telekonferenz reduziert wird.
  • In monochromen Standbild-Telekonferenzsystemen kann die zu sendende Datenmenge verringert werden, indem bekannte Verfahren zur Graustufen-Datenkomprimierung und Lauflängencodierungsverfahren verwendet werden. Weil monochrome Bilddaten durch die Anwendung solcher Verfahren manipuliert und reduziert werden können, ist es möglich, die benötigten Daten bei geringen Bandbreiten zu übertragen, ohne daß ein übermäßig hoher Zeitaufwand für die Übertragung erforderlich ist.
  • Bei einem Farbbild ist zur Definition eines einzelnen Bildelementes eine größere Menge an Daten erforderlich als für die Definition desselben Bildelementes in einem monochromen Bild. Aufgrund der Komplexität der für die Definition eines Farbbildelementes erforderlichen Daten wurde allgemein angenommen, daß Farbbilder nicht mit Hilfe derselben Arten von Datenkomprimierungsverfahren verarbeitet werden könnten, die für monochrome Bilder verwendet wurden.
  • Bei bekannten Standbild-Farbvideokonferenzsystemen wurden potentielle Probleme und technische Schwierigkeiten der Komprimierung von Farbbildern vermieden, indem einfach unkomprimierte Farbdaten zwischen den Telekonferenzorten übertragen wurden. Wenn in solchen Systemen ein Übertragungsmedium mit großer Bandbreite verwendet wird, können die Bilder mit hoher Frequenz aktualisiert werden, jedoch sind auch die Kosten der Datenfernübertragung entsprechend hoch. Wenn in solchen Systemen ein Übertragungsmedium mit geringer Bandbreite verwendet wird, kann eine unerwünschte Verzögerung zwischen den Bildaktualisierungen auftreten.
  • Vor der Komprimierung von Farbdaten in einem Videosystem ist es notwendig, jedes zu verarbeitende Farbsignal in seine Komponenten zu zerlegen. Jede Farbe kann entweder entsprechend ihrer RGB-Komponenten oder alternativ entsprechend der Luminanz (Y)und Chrominanz (I,Q)-Komponenten definiert werden.
  • Eine solche Zerlegung des Farbsignals in dessen Komponenten ist ein wohlbekanntes Verfahren. Es ist beispielsweise in der französischen Patentschrift 2 532 130 nachzulesen, die einen Filter für die abgetasteten Daten zur Trennung des Chrominanzsignals von einem digitalisierten zusammengesetzten Videosignal beschreibt.
  • Eine gegebene Farbe kann unter Anwendung bekannter Verfahren und Einrichtungen zur Vektoranalyse analysiert werden. Eine solche Einrichtung ist für die Verwendung in einem Videokonferenzsystem jedoch nicht geeignet, weil diese streng analog arbeitet und folglich nicht sofort kompatibel zu der Verarbeitungseinrichtung für digitale Daten ist, die normalerweise zur Ablaufsteuerung eines Videokonferenzsystems verwendet wird. Außerdem stellt die Vektoranalyseeinrichtung einen zusätzlichen Kostenpunkt in einem Videokonferenzsystem dar. Schließlich trennt die Vektoranalyseeinrichtung Luminanz- und Chrominanzinformationen nicht mit der für den Einsatz in einer Videokonferenz erforderlichen Genauigkeit.
  • Ebenfalls bekannte Verfahren zur Zerlegung eines Farbsignals sind die Kammfilterverfahren. Ein Kammfilterverfahren ist ein räumliches Mittelungsverfahren, bei dem Abtastwerte von aufeinanderfolgenden Aktivvideozeilen einen gewichteten Mittelwert bilden, der zur Bestimmung von Luminanz und Chrominanz eines gegebenen Punktes in einem Bild verwendet werden kann. So wird in einer Patentzusammenfassung in "Patent abstract of Japan", Vol. 4, Nr. 181, 1980, eine Einrichtung zum Trennen von Luminanz- und Chrominanzsignalen mit Hilfe eines Filters, in der ein Kammzeilenfilter verwendet wird, beschrieben. Die GB-Patentschrift 2 130 840 betrifft einen Rahmen-zu-Rahmen-Kammfilter zur Trennung von Chrominanz- und Luminanzsignalen von zusammengesetzten Videosignalen, die störende Verzerrungen um die Ränder sich bewegender Objekte erzeugen. Die US-Patentschrift 4 468 689 beschreibt ebenfalls eine Farbtrennungsschaltung mit einem Kammfilter zur Erzeugung von Ausgangssignalen entsprechend der Summe aus und der Differenz zwischen einem zusammengesetzten Eingangsvideosignal und einem Signal, das durch Verzögerung des zusammengesetzten Eingangsvideosignals um eine horizontale Abtastperiode erzeugt wurde.
  • Das Kammfilterverfahren ist für die Anwendung in einer Videokonferenz jedoch nicht wünschenswert, da die erforderliche Mittelwertbildung von Zeile zu Zeile im allgemeinen zu einem Verlust der Bildauflösung in vertikaler Richtung führt.
  • Daher stellt die vorliegende Erfindung ein Verfahren und ein System zur Zerlegung von analogen NTSC-Standardvideosignalen in ihre Y-I-Q- oder Luminanz- und Chrominanzkomponenten dar. Das Verfahren verwendet einfache digitale Operationen, die mit einer standardisierten Einrichtung zur Verarbeitung digitaler Daten sofort und schnell durchgeführt werden können. Die Bildauflösung bleibt unverändert hoch.
  • Das Verfahren beinhaltet das Digitalisieren einer den Farbsignalnormen entsprechenden Analogeingabe zu vorbestimmten Abtastzeitpunkten, die wiederkehrenden Phasenwinkelverschiebungen bezüglich der Phase der Farberkennungskomponente der Analogeingabe entsprechen, wobei die Verschiebungen jene um 0º, 90º, 180º und 270º bezüglich der Farberkennungsphase enthalten, das Speichern der digitalisierten Bildelementwerte in Speicherstellen, die Bildelementpositionen in vier aufeinanderfolgenden Bildfeldern entsprechen, die zwei aufeinanderfolgende Bilder repräsentieren, das Festlegen von Werten für die Y-Komponente für ausgewählte Bildelemente in Abhängigkeit von der Summe gespeicherter digitalisierter Bildelementwerte, die entsprechende zusammenfallende Bildelementpositionen in den zwei aufeinanderfolgenden Bildern besetzen, und das Festlegen von Werten für die C-Komponente für ausgewählte Bildelemente in Abhängigkeit von der Differenz zwischen gespeicherten, digitalisierten Bildelementwerten, die entsprechende zusammenfallende Bildelementpositionen in den zwei aufeinanderfolgenden Bildern besetzen. Das Verfahren umfaßt ferner den Schritt des Ableitens von Komponentenwerten I und Q der Chrominanzkomponente auf der Grundlage des festgelegten C-Wertes für jedes ausgewählte Bildelement, wobei dieser Schritt des Ableitens darin besteht, die festgelegten C-Werte für zwei aufeinanderfolgende Bildelemente p und p-1 in einer gegebenen Zeile zurückzuholen, die unten angegebenen Gleichungen für I und Q zu lösen,
  • I = -1.414[C(p)*sin(a-135) - C(p-1)*sin(a)]
  • Q = +1.414[C(p)*cos(a-135) - C(p-1)*cos(a)],
  • wobei a die Abtastwinkelphase für eine Bildelementposition p ist, und die berechneten I- und Q-Werte jedem der Bildelemente p und p-1 zuzuweisen.
  • Details einer Hauptausführung der Erfindung können aus der folgenden technischen Beschreibung leichter ermittelt werden, wenn diese in Verbindung mit den beigelegten Zeichnungen gelesen wird, in denen folgendes gilt:
  • Fig. 1 ist ein Blockdiagramm des Übertragungsteils eines Videokonferenzsystems, welches das Gebiet zeigt, auf dem die vorliegende Erfindung angewandt wird;
  • Fig. 2 ist der Verlauf eines analogen Farbvideosignals;
  • Fig. 3 ist eine vergrößerte Ansicht eines Teils des Farbvideosignals, welche die Phase eines Farberkennungszwischenträgers für zwei aufeinanderfolgende Darstellungen des Bildes zeigt;
  • Fig. 4 ist eine tabellarische Darstellung der Phase des Farberkennungszwischenträgers für die ungeraden und geraden Felder von zwei aufeinanderfolgenden Bildern;
  • Fig. 5 ist ein Blockdiagramm der zur Ausführung der Erfindung erforderlichen Hardware;
  • Fig. 6 ist eine Darstellung von Bildabtastphasenwinkeln und Videoinformationen, die bei bestimmten Winkeln sofort bestimmt werden können; und
  • Fig. 7 ist ein Flußdiagramm, das zur Erläuterung der logischen Schritte verwendet wird, die bei der Umsetzung der Erfindung in die Praxis durchgeführt werden.
  • Fig. 1 ist ein vereinfachtes Blockdiagramm bestimmter Komponenten in einem Videokonferenzsystem, welches das Gebiet zeigen soll, auf dem die vorliegende Erfindung angewandt wird. Ein Farbbild, wie zum Beispiel das durch ein Dokument 10 präsentierte, wird mit Hilfe einer herkömmlichen Videokamera 12 erfaßt. Die erfaßten Daten werden digitalisiert und in Datenerfassungspuffern gespeichert. Wie später detaillierter erläutert wird, werden zwei aufeinanderfolgende Darstellungen desselben Bildes erfaßt, digitalisiert und in den Puffern 14 gespeichert. Jedes Bild besteht aus zwei Feldern (gerade und ungerade), wobei jedes Feld in einem separaten Puffer gespeichert wird.
  • Die digitalisierten Daten werden in der Bildverarbeiterlogik 16 verarbeitet, welche die Farbvideodaten Bildelement-für-Bildelement in Y-I-Q-Komponenten zerlegt, wie noch detaillierter beschrieben wird. Die zerlegten Daten können Bildkomprimierungsvorgängen unterzogen werden, obgleich solche Vorgänge kein Bestandteil der vorliegenden Erfindung sind, bevor diese zu einem Modem 18 übertragen werden, das die Daten für die Übertragung über eine herkömmliche Datenfernübertragungsverbindung zu einem Empfangsmodem 22 in das richtige Format bringt. In einer Hauptausführung besteht die Datenfernübertragungsverbindung aus gewöhnlichen Wählleitungen. Empfangene Daten werden zu einer Bildverarbeitungslogik 24 am Empfangsort übertragen. Die Logik 24 führt im Grunde umgekehrte Operationen aus wie die Logik 16 an der Sendestelle. Die Logik 16 dekomprimiert die Daten und setzt die empfangenen Y-I-Q-Daten wieder zu zusammengesetzten Farbvideodaten zusammen. Die Daten werden in einem Bildpufferspeicher 26 gespeichert. Die aus dem Pufferspeicher 26 zurückgeholten Daten werden in ein analoges Format konvertiert und zu einem herkömmlichen Monitor 28 übertragen.
  • Die unter Verwendung der vorliegenden Erfindung verarbeiteten Daten müssen NTSC-Normen entsprechen.
  • Das Format eines NTSC-Farbfernsehsignals ist durch die Zeilenrate, die Synchronisierungssignale, das Feldformat, das Bildformat und den Referenzfarbzwischenträger spezifiziert.
  • Ein NTSC-Bild besteht aus zwei Feldern, von denen jedes 262,5 Zeilen lang ist, woraus sich 525 Zeilen pro Bild ergeben. Das erste oder ungerade Feld besteht aus zwanzig Zeilenzeiten von Synchronisierungssignalen, gefolgt von 242,5 Zeilen Aktivvideo. Das zweite oder gerade Feld besteht aus 19,5 Zeilenzeiten von Synchronisierungssignalen, gefolgt von 243 Zeilen Aktivvideo. Die erste halbe Zeile von Aktivvideo im geraden Feld wird gelöscht.
  • Der Referenzfarbzwischenträger ist ein kontinuierliches Sinussignal, dessen Frequenz 3,579545 MHz beträgt. Die Länge einer einzelnen Zeile ist definiert als 227,5 mal die Periode des Farbzwischenträgers. Ein Farberkennungssignal wird erhalten, indem neun Zyklen des Referenzfarbzwischenträgers am Beginn jeder aktiven Videoabtastzeile eingefügt werden. Die Phase des Farberkennungssignals wird relativ zur Anstiegsflanke des horizontalen Synchronisierungsimpulses jeder Zeile gemessen und beträgt nominell entweder 0 Grad oder 180 Grad.
  • Fig. 2 ist das Signal einer Abtastzeile in einem Fernsehsignal, das NTSC-Normen entspricht. Das Signal beinhaltet einen horizontalen Synchronisierungs (Sync)-Impuls 30, ein Farberkennungssignal 32 und Aktivvideo 34. Der Aktivvideoanteil 34 ist ein zusammengesetztes Signal, das Luminanzinformationen (Graustufen) und Chrominanzinformationen (Farbe) enthält. Die Luminanz wird an jedem Punkt des Signals durch eine Basisbandsignalkomponente angezeigt und mittels der Spannungsdifferenz zwischen diesem Punkt des Signals und der Spitze des horizontalen Synchronisierungsimpulses gemessen. Die Luminanz am Punkt 36 des Signals wird zum Beispiel durch die Spannungsdifferenz V repräsentiert.
  • Die Chrominanzinformation an einem gegebenen Punkt des Signals ist in der relativ niedrigen, jedoch hochfrequenten Amplitudenmodulation enthalten, die zu der Basisband- oder Luminanzsignal addiert wird. Die Hochfrequenzfarbsignale enthalten Informationen über den Farbton und die Sättigung der Farbe an diesem Punkt in dem zusammengesetzten Videosignal. Farbton ist eine andere Bezeichnung für Farbe. Beispielsweise besitzen Rot und Grün verschiedene Farbtöne, Rosa und Rot jedoch denselben Farbton. Die Sättigung ist ein Maß dafür, wieviel von einer reinen Farbe durch Mischung mit Weiß verdünnt wurde. Rosa besitzt zum Beispiel den gleichen Farbton wie Rot, jedoch eine viel geringere Sättigung. In einem NTSC-Videosignal bestimmt die Phase des Farbmodulationssignals relativ zur Phase des Farberkennungssignals den Farbton des Videobildes an diesem Punkt. Die Spitzen- Spitzen-Amplitude des Farbmodulationssignals bestimmt den Sättigungsgrad.
  • Ein NTSC-Farbsignal kann definiert werden, indem eines von zwei Koordinatensystemen verwendet wird. Das bekanntere System ist das RGB-System. Im RGB-System wird eine Farbe durch ihren Rot-, Grün- und Blauanteil definiert. Dieselbe Farbe kann auch über Y- I-Q-Komponenten definiert werden. Die Luminanz einer Farbe wird durch die Y-Komponente angezeigt. Die Chrominanz dieser Farbe wird durch die I- und Q-Komponenten angezeigt. Es besteht ein Eins-zu-Eins-Verhältnis zwischen RGB-Koordinaten und Y-I-Q-Koordinaten. Die formellen Umformungen zwischen den beiden Koordinatensystemen können folgendermaßen angegeben werden:
  • und
  • Die vorliegende Erfindung ist ein Verfahren zur Zerlegung der digitalen Darstellung aufeinanderfolgender Abtastwerte des analogen Signals, um Y-I-Q-Werte festzulegen, die sofort komprimiert werden können. Das Verfahren, das später detaillierter beschrieben wird, beruht auf einer eindeutig definierten Reihe von Beziehungen hinsichtlich der Phase des Farberkennungssignals relativ zu dem horizontalen Synchronisierungsimpuls auf einer Zeile-zu-Zeile-, Feld-zu-Feld- und Bild-zu-Bild-Basis.
  • Da jede Aktikvideozeile in einem NTSC-Signal per Definition 227,5 mal die Periode des Farberkennungssignals beträgt, ändert sich die Phase des Farberkennungssignals relativ zum horizontalen Synchronisierungsimpuls für eine gegebene Zeile um 180 Grad in aufeinander folgenden Zeilen innerhalb eines einzelnen Feldes. Falls beispielsweise die Phase des Farberkennungssignals für Zeile fünfundzwanzig in einem geraden Feld 0 Grad beträgt, dann beträgt die Phase des Farberkennungssignals für Zeile sechsundzwanzig in demselben Feld 180 Grad.
  • Da außerdem übereinstimmend numerierte Zeilen in den beiden Feldern (ungerade und gerade) in einem einzelnen Bild durch 263 Zeilenzeiten voneinander getrennt sind, ändert sich die Phase des Farberkennungssignals auch bei 180 Grad zwischen solchen Zeilen in den beiden Feldern. Falls beispielsweise die Phase des Farberkennungssignals für Zeile vierzig des ungeraden Feldes 0 Grad beträgt, dann beträgt die Phase des Farberkennungssignals für Zeile vierzig im geraden Feld 180 Grad.
  • Da es schließlich 525 Zeilen pro Bild gibt, ändert sich die Phase des Farberkennungssignals außerdem bei 180 Grad zwischen übereinstimmend numerierten Zeilen in aufeinander folgenden Bildern. Falls beispielsweise die Phase des Farberkennungssignals für Zeile dreißig des geraden Feldes in einem Bild 0 Grad beträgt, so beträgt die Phase des Farberkennungssignals für Zeile dreißig des geraden Feldes des nächsten Bildes 180 Grad.
  • Fig. 3 ist eine vergrößerte Darstellung zweier analoger Signale, die auf horizontale Synchronisierungsimpulse folgen. Jedes Signal beinhaltet einen Farberkennungsabschnitt (CB), der aus neun Zyklen einer Sinuswelle mit konstanter Amplitude mit der Frequenz des Referenzfarbzwischenträgers besteht. Jedes Signal beinhaltet ferner einen Aktivvideoabschnitt (AV), in dem die Amplitude und die Phase des Signals gemäß der Farben des abgetasteten Bildes variieren. Das obere der beiden Signale könnte jede gegebene Aktivvideozeile darstellen. Das untere der beiden Signale würde entweder die nächste Zeile in demselben Feld, die übereinstimmend numerierte Zeile in dem nächsten Feld oder die übereinstimmend numerierte Zeile in dem nächsten Bild darstellen.
  • Die Periodizität der Phasenänderungen im Farberkennungssignal relativ zum horizontalen Synchronisierungsimpuls legt eine Superbildstruktur für ein NTSC-Signal fest. Wie in Fig. 4 gezeigt, besteht ein Superbild aus zwei aufeinanderfolgenden Bildern (Bild A und Bild B), wobei jeder sowohl ungerade als auch gerade Felder aufweist. In Fig. 4 wird die nominelle Phase des Farberkennungssignals für die ersten vier Zeilen von Aktivvideo für jedes der Felder in diesem Superbild gezeigt.
  • In einem System, das die vorliegende Erfindung ausführt, wird jedes der vier Felder in einem Superbild erfaßt und in einem logisch separaten Datenerfassungspuffer gespeichert. Die Grundkomponenten eines solchen Systems werden unter Bezugnahme auf Fig. 5 beschrieben. Das durch die Kamera 12 erzeugte analoge Videosignal wird zu einem Analog-Digital-Umsetzer 38 übertragen, der das analoge Signal auf periodischer Basis abtastet und Digitaldarstellungen des abgetasteten analogen Wertes erzeugt. Die Abtastrate ist einzigartig für die vorliegende Erfindung, wie später detaillierter erläutert wird. In einer Hauptausführung der Erfindung besitzen die Digitaldarstellungen eine Auflösung von 28, was bedeutet, daß das digitale Signal einen von 256 Werten annehmen kann.
  • Analoge Videosignale von der Kamera 12 werden außerdem zu einem herkömmlichen Farberkennungssignaldetektor 42 übertragen. Die Operationen der Kamera 12 und des Analog-Digital-Umsetzers 38 werden mittels einer Zeitsteuerungsschaltung mit freiem Durchlauf 40 synchronisiert um zu gewährleisten, daß das analoge Signal nur zu vorbestimmten Zeitpunkten abgetastet und digitalisiert wird. Die Zeitsteuerungsschaltung 40 steuert außerdem eine Multiplexerschaltung 44, welche das digitale Signal auf vier Pufferspeicher 46, 48, 50 und 52 verteilt, die in zwei Bildpuffern 54 und 56 organisiert sind. Der Einfachheit halber soll der Bildpuffer 54 das Bild A des Videobildes aufrechterhalten, während der Bildpuffer 56 das Bild B desselben Videobildes aufrechterhält. Wie in der Fig. angedeutet, speichert Puffer 46 das ungerade Feld von Bild A, Puffer 48 das gerade Feld von Bild A, Puffer 50 speichert das ungerade Feld von Bild B und Puffer 52 speichert das gerade Feld von Bild B.
  • Die Puffer sind mit dem Bildverarbeiter 16 verbunden, der gespeicherte Digitalwerte aus nicht aufeinanderfolgenden Feldpuffern unter Verwendung einfacher Verarbeitungsalgorithmen verarbeitet, um diese Werte in Y-I-Q-Komponenten zu zerlegen.
  • Was die Y-I-Q-Komponenten betrifft, ist ein zusammengesetztes NTSC-Signal an der Bildelementposition (x,y) und zur Zeit t definiert als:
  • s(x,y,t) = Y(x,y) + I(x,y)cos(B(t)) + Q(x,y)sin(B(t)), Gl. 1
  • wobei
  • Y(x,y) die Luminanz ist,
  • I(x,y) die I-Komponente der Chrominanz ist,
  • Q(x,y) die Q-Komponente der Chrominanz ist,
  • B(t) gleich 2 * Pi * f(t) ist und
  • f die Frequenz des Referenzfarbzwischenträgers ist.
  • Für eine gegebene Farbe ändert sich keine der Y-I-O-Komponenten in Abhängigkeit von der Position eines abgetasteten Punktes innerhalb des abgetasteten Bildes. Andererseits variieren die Werte des zusammengesetzten Signals und der Chrominanzkomponente, die durch die beiden letzten Terme der obigen Gleichung repräsentiert wird, in Abhängigkeit von der Position des abgetasteten Punktes innerhalb des Bildes.
  • Die oben erwähnte NTSC-Superbildstruktur legt ein Signalformat fest, in dem die Phase des Farberkennungssignals relativ zum horizontalen Synchronisierungsimpuls von Bild zu Bild umgekehrt ist. Daraus folgt, daß der Chrominanzanteil eines zusammengesetzten NTSC-Signals seine Phase ebenfalls von einem Bild zum nächsten umkehrt. Die Aktivvideoanteile (AV) der beiden in Fig. 3 gezeigten Signale zeigen diese Phasenumkehr von einem Bild zum nächsten, wobei dasselbe Bild in beiden Bildpuffern gespeichert ist. Die Umkehr oder 180º-Änderung in der Chrominanzphase von einem Bild zum nächsten ist ein Schlüssel zur Demodulation oder Zerlegung eines digitalisierten zusammengesetzten NTSC-Signals in dessen Luminanz- und Chrominanzkomponenten.
  • Wie zuvor unter Bezugnahme auf Fig. 5 beschrieben wurde, werden zwei aufeinanderfolgende Bilder erfaßt, digitalisiert und in den Pufferspeichern der Bildpuffer 54 und 56 gespeichert. In einem Standbild-Telekonferenzsystem bestehen die zwei aufeinanderfolgenden Bilder tatsächlich aus demselben Bild oder derselben Szene im Raum. Bei einer Bildelementstufe sind zwei Bildelemente vorhanden, eines in jedem Puffer, die das Ergebnis der Abtastung desselben Bildpunktes oder Raumpunktes sind.
  • Die beiden digitalisierten Werte von den verschiedenen Bildpuffern können durch einfache Additions- und Subtraktionsoperationen verknüpft werden, um die Luminanz- und Chrominanzwerte für einen gegebenen Bildpunkt abzuleiten. Einfach ausgedrückt, wird der Luminanzwert für einen gegebenen Punkt festgelegt, indem die Digitalwerte für entsprechende Bildelementpositionen in den beiden Bildpuffern addiert werden und das Ergebnis durch zwei geteilt wird. Mathematisch bedeutet dies, falls das in einer gegebenen Bildelementposition im Bildpuffer A gespeicherte Bildelement einen Wert Y + I*cos(B(t)) + Q*sin(B(t)) hat, so hat das entsprechende Bildelement im Bildpuffer B einen Wert Y + I*cos(B(t)+180) + Q*sin(B(t)+180). Da der Cosinus und der Sinus eines Winkels + 180 Grad den gleichen Wert, jedoch das entgegengesetzte algebraische Zeichen von Sinus und Cosinus für den Winkel selbst haben, annulliert die Addition der gespeicherten Digitalwerte effektiv die I- und Q-Komponenten des zusammengesetzten Signals, wobei ein Ergebnis von 2Y stehenbleibt. Die Division durch zwei liefert die Y- oder Luminanz-Komponente für einen gegebenen Bildpunkt.
  • Die Chrominanzkomponente desselben Bildpunktes kann durch Subtraktion des zweiten gespeicherten Digitalwertes von dem ersten erhalten werden. Der Subtraktionsvorgang eliminiert die Y-Komponente und liefert einen Wert von 2C, wobei C aus den I- und Q- Werten für den Bildpunkt zusammengesetzt ist.
  • Die Auftrennung des zusammengesetzten NTSC-Signals in dessen Luminanz- und Chrominanzkomponenten ist bei einer Rate zulässig, bei der die analogen Videodaten abgetastet werden können. Wie unten gezeigt wird, bietet die sorgfältige Auswahl der bevorzugten Abtastrate mehrere Rechenvorteile bei der weiteren Zerlegung der Chrominanzkomponenten in deren I- und Q-Komponenten.
  • Aus Gründen, die zum Verständnis der vorliegenden Erfindung nicht wesentlich sind, beträgt die bevorzugte Abtastrate 8/3 der Farbzwischenträgerfrequenz, was zu einer Phasenänderung von 135 Grad zwischen aufeinander folgenden Abtastwerten in derselben Zeile führt. Daraus folgt, daß es nur acht mögliche Werte für einen Abtastwinkel gibt, nämlich 0, 135, 270, 45, 180, 315, 90 und 225 Grad, und daß die Abtastwerte für aufeinander folgende Bildelementpositionen in einer Zeile in der angegebenen Reihenfolge auftreten.
  • Nach acht Abtastpunkten wiederholt sich die Winkelreihe. Aufgrund der periodischen Struktur des NTSC-Signalformates wiederholt sich die Abtastphase außerdem alle vier Zeilen für eine gegebene Position innerhalb einer Zeile. Wenn die Periodizität innerhalb einer Zeile mit der Periodizität einer Reihe von Zeilen verknüpft wird, entsteht eine Matrix aus Abtastwinkeln, die acht Bildelemente breit und vier Zeilen tief ist. Diese Matrix wiederholt sich ungeachtet der Anzahl der Bildelementpositionen innerhalb des Bildes ein ganzes Bild hindurch. Diese acht Bildelemente breite, über vier Zeilen gehende Matrix wird in Fig. 6 zusammen mit den Abtastwinkeln für eine fünfte Bildzeile gezeigt. Wie oben erwähnt, sind die Abtastwinkel für die fünfte Bildzeile identisch mit den Abtastwinkeln für die erste Bildzeile in der Matrix.
  • Weil die Matrix sich ungeachtet der Größe des Bildes überall im Bild wiederholt, können die Sinusterme in der Y-I-Q-Definition eines NTSC-Signals nur eine sehr begrenzte Reihe von Werten annehmen. Diese Eigenschaft wird genutzt, um die Berechnungen für die Zerlegung der Chrominanz in die I- und Q-Komponenten zu vereinfachen.
  • Das oben beschriebene Verfahren bestimmt die Luminanz (Y)- und die Chrominanz (C)-Werte für jedes Bildelement in einem Bild durch einfache Additions- und Subtraktionsoperationen. Die Chrominanzwerte für zwei aufeinanderfolgende Bildelemente in einer Zeile können zur Ableitung der I- und Q-Werte für jedes der beiden Bildelemente verwendet werden, basierend auf der Annahme, daß die I- und Q-Werte über einen zwei Bildelemente breiten Bereich konstant sind. Falls der Chrominanzwert C bei der Bildelementposition p als C(p) identifiziert wird und der Chrominanzwert für das vorangegangene Bildelement als C(p-1) identifiziert wird und die Abtastphase zwischen aufeinander folgenden Bildelementpositionen in einer Zeile sich um 135 Grad ändert, definieren die beiden folgenden Gleichungen die Chrominanzwerte:
  • C(p) = I*cos(a) + Q*sin(a) Gl. 2
  • C(p-1) = I*cos(a-135) + Q*sin(a-135) Gl. 3
  • wobei a der aktuelle Abtastwinkel bei der Bildelementposition p ist.
  • Diese beiden Gleichungen können wie folgt gelöst werden:
  • I = -1,414[C(p)*sin(a-135) - C(p-1)*sin(a)] Gl. 4
  • Q = +1,414[C(p)*cos(a-135) - C(p-1)*sin(a)] Gl. 5
  • Wie oben angegeben, gibt es nur acht mögliche Werte für den Abtastwinkel. Daher ist die Anzahl der Lösungen für die oben angegebenen Gleichungen 4 und 5 begrenzt. Die Lösung kann im Matrixformat dargestellt werden als:
  • wobei die Werte für die ±m'-Terme mit dem Abtastwinkel a variieren. Es folgt eine Tabelle der ±m'-Terme für die verschiedenen möglichen Abtastwinkel: Abtastwinkel
  • Es sei darauf hingewiesen, daß die einzigen möglichen Werte für die ±m'-Terme 0,000; +/-1,000 und +/-1,414 sind.
  • Wie oben gezeigt wurde, können die Y- und C-Komponenten eines Bildelementes in einem zusammengesetzten NTSC-Signal durch einfache Addition und Subtraktion von Digitalwerten in entsprechenden Positionen in zwei aufeinanderfolgenden Bildern bestimmt werden. Ferner kann die C-Komponente verwendet werden, um die Iund Q-Werte für ein gegebenes Bildelement zu berechnen, indem die in Matrixform dargestellten Gleichungen, wie die obige Gleichung 6, verwendet werden.
  • Die I- und Q-Werte können für bestimmte Abtastwinkel auch ohne die für Gleichung 6 erforderlichen Berechnungen direkt abgeleitet werden. Innerhalb der Reihe möglicher Abtastwinkel haben vier (0, 90, 180, 270) eine spezielle Bedeutung. Bei diesen Winkeln ist einer der beiden Terme aus Gleichung 2 gleich Null, während der andere gleich dem positiven oder negativen Wert von I oder Q ist. Das heißt, Gleichung 2 kann für die folgenden Ioder Q-Werte bei den angegebenen Abtastwinkeln direkt gelöst werden:
  • Abtastwinkel C(p)
  • 0 +I
  • 90 +Q
  • 180 -I
  • 270 -Q
  • In Fig. 6 werden die I- und Q-Werte gezeigt, die direkt bei den angegebenen Abtastwinkeln erhalten werden können. Es sei wiederum darauf hingewiesen, daß C(p) selbst durch die einfache Subtraktion von Digitalwerten, die in entsprechenden Bildelementpositionen in den beiden Bildpuffern gespeichert sind, erhalten werden kann. Daher können die I- und Q-Werte über das Subtraktionsverfahren bei jeder vierten Bildelementposition im Bild direkt erhalten werden, wie in der Fig. angegeben.
  • In einer Ausführung der Erfindung wird der Luminanz- oder Y-Wert bei jeder Bildelementposition durch das beschriebene Additionsverfahren berechnet, die I-Komponente wird erhalten, indem das Subtraktionsverfahren für Bildelemente angewandt wird, die durch Abtasten bei den Winkeln von 0 und 180 Grad erhalten werden, und die Q-Komponente wird erhalten, indem das Subtraktionsverfahren für Bildelemente angewandt wird, die durch Abtasten bei Winkeln von 90 und 270 Grad erhalten werden. I- und Q-Komponenten für Bildelemente bei anderen als den angegebenen Winkeln können durch Interpolieren zwischen direkt erhaltenen I- und Q-Werten erhalten werden.
  • Fig. 7 ist ein Flußdiagramm, das die oben erwähnte Ausführung beschreibt. Zwei aufeinanderfolgende Videodarstellungen desselben Bildes werden erhalten (Block 710), indem das analoge Videosignal bei Abtastwinkeln, die Vielfache von 135 Grad sind, abgetastet wird. Die resultierenden Digitalwerte werden in vier Feldpuffern (Block 712) gespeichert. Wie in der Fig. angedeutet, speichern die Puffer 1 und 2 die ungeraden und geraden Felder jeweils im Bild A, während die Puffer 3 und 4 die ungeraden und geraden Felder jeweils im Bild B speichern.
  • Das Verfahren der Zerlegung des digitalisierten zusammengesetzten Signals in dessen Y-I-Q-Komponenten beginnt bei dem ersten Bildelement im Bild (Block 714). Die in den zusammenfallenden oder entsprechenden Bildelementpositionen in den Puffern 1 und 3 gespeicherten Digitalwerte werden addiert (Block 716), und das Ergebnis wird durch 2 dividiert (Block 718), um die Y-Komponente für das Bildelement zu erhalten.
  • Falls der Abtastwinkel kein Vielfaches von 90 Grad ist (Block 720), wird der erhaltene Y-Wert an einer geeigneten Stelle in einem Bildelementspeicher (Block 722) gespeichert, und das nächste Bildelement wird für das Zerlegungsverfahren ausgewählt (Block 724).
  • Die Folge der oben beschriebenen Schritte wird wiederholt, bis der Abtastwinkel ein Vielfaches von 90 Grad ist. Wenn dies eintritt, werden die in der ausgewählten Bildelementposition in den Puffern 1 und 3 gespeicherten digitalisierten Werte subtrahiert (Block 726), und das Ergebnis wird durch zwei dividiert (Block 728), um einen Wert zu erhalten, der in Abhängigkeit vom Abtastwinkel +/-I oder +/-Q sein kann.
  • Falls der Abtastwinkel 0 oder 180 Grad beträgt (Block 730), ist der erhaltene Wert +/-I. Sind dieser Wert und der I-Wert, der vier Bildelemente früher in derselben Zeile erhalten würde, gegeben, kann ein Interpolationsverfahren durchgeführt werden (Block 732), um I-Werte für die dazwischen liegenden Bildelementpositionen zu erhalten.
  • Falls der Abtastwinkel nicht gleich 0 oder 180 Grad ist, so muß dieser 90 oder 270 Grad betragen, was bedeutet, daß das bei Block 728 erhaltene Ergebnis +/-Q ist. Es kann ein Interpolationsverfahren (Block 734) durchgeführt werden, um Q-Werte für die drei dem gegenwärtigen Bildelement vorangehenden Bildelemente zu erhalten.
  • Alle erhaltenen Y-I-Q-Werte werden an geeigneten Stellen für Bildelementpositionen im Bildelementspeicher gespeichert, wo diese für Bildkomprimierungsvorgänge zur Verfügung stehen. Es ist zu beachten, daß ein Y-Wert direkt erhalten und für jede Bildelementposition gespeichert wird. I- und Q-Werte werden alle vier Bildelemente direkt und bei anderen Bildelementpositionen indirekt über Interpolation erhalten.

Claims (4)

1. Verfahren zum Zerlegen von NTSC-Farbvideosignalen in Luminanz (Y)- und Chrominanz (C)- Komponenten für eine Verwendung in einem Einzelbild-Videosystem mit einer Analogeingabe, die NTSC- Farbsignalstandards entspricht, welches die folgenden Schritte umfaßt:
Digitalisieren der Analogeingabe zu vorbestimmten Abtastzeitpunkten, die wiederkehrenden Phasenwinkelverschiebung bezüglich der Phase der Burstkomponente der Analogeingabe entsprechen, wobei die Verschiebungen jene um 0º, 90º, 180º und 270º bezüglich der Burstphase enthalten,
Speichern der digitalisierten Bildelementwerte in Speicherstellen, die Bildelementpositionen in vier aufeinanderfolgenden Bildfeldern entsprechen, die zwei aufeinanderfolgende Rahmen repräsentieren,
Festlegen von Werten für die Y-Komponente für ausgewählte Bildelemente in Abhängigkeit von der Summe gespeicherter, digitalisierter Bildelementwerte, die entsprechende zusammenfallende Bildelementpositionen in den zwei aufeinanderfolgenden Rahmen besetzen und
Festlegen von Werten für die C-Komponente für ausgewählte Bildelemente in Abhängigkeit von der Differenz zwischen gespeicherten, digitalisierten Bildelementen, die entsprechende zusammenfallende Bildelementpositionen in den zwei aufeinanderfolgenden Rahmen besetzen,
wobei das Verfahren dadurch gekennzeichnet ist, daß dieses den Schritt des Ableitens von Komponentenwerten I und Q der Chrominanz auf der Grundlage des festgelegten C-Wertes für jedes ausgewählte Bildelement umfaßt, wobei der Schritt des Ableitens die folgenden weiteren Schritte umfaßt:
Zurückholen der festgelegten C-Wertes für zwei aufeinanderfolgende Bildelemente p und p-1 in einer gegebenen Zeile,
Lösen der unten angegebenen Gleichungen für I und Q
I = -1.414[C(p)*sin(a-135) - C(p-1)*sin)a)]
Q = +1.414[C(p)*cos(a-135) - C(p-1)*cos(a)]
wo a die Abtastwinkelphase für eine Bildelementposition p ist und
Zuweisen der berechneten I- und Q-Werte jedem der Bildelemente p und p-1.
2. Verfahren nach Anspruch 1, bei welchem die Abstastwinkel voneinander um 135º-Inkremente verschoben und auf Winkel von 0º, 135º, 270º, 45º, 180º, 315º, 90º und 225º eingeschränkt sind.
3. System zum Zerlegen von NTSC-Farbvideosignalen, die von einer Videokamera geliefert werden, welches folgendes aufweist:
ein Paar von Bildrahmenpuffern, wobei jeder einen Puffer für ungerade Felder und einen Puffer für gerade Felder aufweist,
Mittel zum Abtasten der analogen Signale, die von der Videokamera zu vorbestimmten Abtastzeitpunkten erzeugt werden, die wiederkehrenden Phasenwinkelverschiebungen bezüglich der Phase der Burstkomponente der analogen Signale entsprechen, wobei die Verschiebungen jene um ±90º und 180º bezüglich der Burstphase enthalten,
Mittel zum Digitalisieren analoger Signale, die von den Abtastmitteln erzeugt werden,
Mittel zum Lenken eines ersten Rahmens digitalisierter Daten in einen der Bildrahmenpuffer und eines zweiten Rahmens digitalisierter Daten in den anderen der Bildrahmenpuffer,
Mittel zum Verarbeiten digitalisierter Daten, die bei ausgewählten zusammenfallenden Bildelementpositionen in entsprechenden Feldpuffer in dem Paar von Rahmenpuffern gespeichert sind, wobei die Verarbeitungsmittel ferner folgendes aufweisen: Mittel zum Addieren der digitalisierten Daten, um einen Luminanzwert für das Bildelement bei der ausgewählten Position abzuleiten und Mittel zum Subtrahieren der digitalisierten Daten, um einen Chrominanzwert für dasselbe Bildelement abzuleiten, wobei das System dadurch gekennzeichnet ist, daß dieses ferner folgendes aufweist:
Mittel zum Zurückholen festgelegter Chrominanzwerte für zwei aufeinanderfolgende Bildelemente p und p-1 in einer gegebenen Zeile,
Mittel zum Lösen der folgenden Gleichungen für I und Q:
I = -1.414[C(p)*sin(a-135) - C(p-1)*sin(a)]
Q = +1.414[C(p)*cos(a-135) - C(p-1)*cos(a)]
wo C der festgelegte Chrominanzwert für das Bildelement in der angezeigten Position ist und a die Abtastwinkelphase für das Bildelement p ist und
Mittel zum Zuweisen der berechneten I- und Q-Werte jedem der Bildelemente p und p-1.
4. System nach Anspruch 3, bei welchem die Abtastwinkel voneinander um 135º-Inkremente verschoben und auf Winkel von 0º, 135º, 270º, 45º, 180º, 315º, 90º und 225º eingeschränkt sind.
DE8686103741T 1985-04-29 1986-03-19 Verfahren und system zur zerlegung von ntsc-farbvideosignalen. Expired - Fee Related DE3686505T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US06/728,013 US4710801A (en) 1985-04-29 1985-04-29 System for decomposition of NTSC color video signals using two frame buffers

Publications (2)

Publication Number Publication Date
DE3686505D1 DE3686505D1 (de) 1992-10-01
DE3686505T2 true DE3686505T2 (de) 1993-04-08

Family

ID=24925073

Family Applications (1)

Application Number Title Priority Date Filing Date
DE8686103741T Expired - Fee Related DE3686505T2 (de) 1985-04-29 1986-03-19 Verfahren und system zur zerlegung von ntsc-farbvideosignalen.

Country Status (5)

Country Link
US (1) US4710801A (de)
EP (1) EP0199964B1 (de)
JP (1) JPS61251289A (de)
CA (1) CA1247233A (de)
DE (1) DE3686505T2 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5075769A (en) * 1987-03-03 1991-12-24 Polaroid Corporation Video identification card system
GB9004687D0 (en) * 1990-03-02 1990-04-25 Indep Broadcasting Authority Improvements in or relating to colour television
US5453787A (en) * 1993-12-10 1995-09-26 International Business Machines Corporation Variable spatial frequency chrominance encoding in software motion video compression
US5798948A (en) * 1995-06-20 1998-08-25 Intel Corporation Method and apparatus for video filtering
WO2000018127A1 (en) 1998-09-21 2000-03-30 Sony Corporation Coding device and method, and decoding device and method, and recorded medium
JP2002142149A (ja) * 2000-11-06 2002-05-17 Mega Chips Corp 画像処理回路
US7233350B2 (en) * 2002-01-05 2007-06-19 Candela Microsystems, Inc. Image sensor with interleaved image output
US7015960B2 (en) * 2003-03-18 2006-03-21 Candela Microsystems, Inc. Image sensor that uses a temperature sensor to compensate for dark current

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4106053A (en) * 1977-08-01 1978-08-08 Rca Corporation Digital sampling rate conversion of color TV signal
JPS54140828A (en) * 1978-04-24 1979-11-01 Nippon Hoso Kyokai <Nhk> Luminance-color separation system
JPS55127477U (de) * 1979-03-06 1980-09-09
JPS55123280A (en) * 1979-03-16 1980-09-22 Nippon Hoso Kyokai <Nhk> Luminance and chromaticity signal separator
JPS603266B2 (ja) * 1979-09-12 1985-01-26 株式会社日立製作所 搬送色信号の位相調整方式
GB2059712B (en) * 1979-10-05 1983-09-14 British Broadcasting Corp Standards conversion of colour television signals
JPS5734708A (en) * 1980-08-11 1982-02-25 Furukawa Electric Co Ltd Method of detecting stress corrosion crack for aerial power distribution insulated wire
JPS5860888A (ja) * 1981-10-08 1983-04-11 Toshiba Corp 色分離回路
US4500912A (en) * 1982-08-04 1985-02-19 Rca Corporation FIR Chrominance bandpass sampled data filter with internal decimation
US4498100A (en) * 1982-11-26 1985-02-05 Rca Corporation Apparatus for frame-to-frame comb filtering composite TV signal
SE453246B (sv) * 1982-11-26 1988-01-18 Rca Corp Anordning och sett for bild-till-bildkamfiltrering av en sammansatt televisionssignal
US4527188A (en) * 1983-02-17 1985-07-02 Rca Corporation Apparatus for demodulating sampled data chroma signals

Also Published As

Publication number Publication date
EP0199964B1 (de) 1992-08-26
JPS61251289A (ja) 1986-11-08
EP0199964A2 (de) 1986-11-05
JPH0353837B2 (de) 1991-08-16
EP0199964A3 (en) 1989-01-11
CA1247233A (en) 1988-12-20
US4710801A (en) 1987-12-01
DE3686505D1 (de) 1992-10-01

Similar Documents

Publication Publication Date Title
DE3431200C2 (de)
DE3650353T2 (de) Kompatibilität von fernsehübertragungen mit vergrössertem und normalem bildformat.
DE3590163C2 (de)
DE69325097T2 (de) Digitaler video-signalverarbeitungsprozessor mit einem vorprozessor der non-interlace-scan-videosignale aus interlace-scan-videosignalen erzeugt und entsprechendes dekompressions- und nachverarbeitungsvorrichtung
DE3854171T2 (de) Bewertung von Bewegungsvektoren in Fernsehbildern.
DE69417833T2 (de) Farbtrennungsgerät und Verfahren für digitales Fernsehen
DE68910848T2 (de) Einrichtung zur raumzeitlichen Unterabtastung von digitalen Videosignalen, die eine Folge verschachtelter oder sequentieller Bilder darstellen, Übertragungssystem von Fernsehbildern mit hoher Auflösung mit einer solchen Einrichtung und Stufen zum Senden und Empfangen in einem solchen System.
DE69608785T2 (de) Verfahren zur verbesserung der vertikalen auflosung eines fernsehsignals mit verminderten vertikalen chominanzubergangen
DE69608410T2 (de) Verfahren zur erzeugung eines aus einem standardbandbreite-farbfernsehsignal erzeugten farbvideosignals mit erhöhter vertikaler auflösung
EP0175860B1 (de) Verfahren zur kompatiblen Auflösungserhöhung für Farbfernsehübertragungssysteme mit Reduzierung der Übersprechstörungen bei bewegungsadaptiver Bildverarbeitung
DE3917562A1 (de) Video-telefon
AT395667B (de) Farbfernsehwiedergabegeraet
DE3435265A1 (de) Verfahren zur aufloesungserhoehung fuer ein kompatibles fernsehsystem
DE3852491T2 (de) Verfahren und anordnung zur erhöhung der vertikalen auflösung eines übertragenen fernsehsignals.
DE3686505T2 (de) Verfahren und system zur zerlegung von ntsc-farbvideosignalen.
WO1997043863A1 (de) Verfahren zur speicherung oder übertragung von stereoskopischen videosignalen
DD292804A5 (de) Schaltungsanordnung zum verbinden und trennen von komponentenbestandteilen eines videosignals
DE3786581T2 (de) Kodierung und dekodierung von digitalen videokomponentensignalen.
DE3341393A1 (de) Verfahren zum uebertragen eines fernsehsignals hoeherer aufloesung
DD290985A5 (de) Mit herkoemmlichen normen kompatibles fernsehuebertragungssystem
DE69119812T2 (de) Bildwiedergabegerät
DE69304556T2 (de) Trennbare Unterabtastung von digitalen Bilddaten mit allgemeiner periodischer Symmetrie
DE69016402T2 (de) Vorrichtung zur komprimierung von farbdifferenzsignalen.
DE68926608T2 (de) Verfahren zur Umwandlung einer Videosignalwiedergabefrequenz
DE3610715A1 (de) Verfahren und schaltungsanordnung zur flimmerfreien wiedergabe eins videosignals

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee