DE3686505T2 - Verfahren und system zur zerlegung von ntsc-farbvideosignalen. - Google Patents
Verfahren und system zur zerlegung von ntsc-farbvideosignalen.Info
- Publication number
- DE3686505T2 DE3686505T2 DE8686103741T DE3686505T DE3686505T2 DE 3686505 T2 DE3686505 T2 DE 3686505T2 DE 8686103741 T DE8686103741 T DE 8686103741T DE 3686505 T DE3686505 T DE 3686505T DE 3686505 T2 DE3686505 T2 DE 3686505T2
- Authority
- DE
- Germany
- Prior art keywords
- values
- pixel
- phase
- image
- chrominance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000005238 degreasing Methods 0.000 title 1
- 239000000872 buffer Substances 0.000 claims description 37
- 238000005070 sampling Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 24
- 230000005540 biological transmission Effects 0.000 description 15
- 239000002131 composite material Substances 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 7
- 238000007906 compression Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013481 data capture Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/77—Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
- H04N9/78—Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase for separating the brightness signal or the chrominance signal from the colour television signal, e.g. using comb filter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N11/00—Colour television systems
- H04N11/06—Transmission systems characterised by the manner in which the individual colour picture signal components are combined
- H04N11/12—Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only
- H04N11/14—Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only in which one signal, modulated in phase and amplitude, conveys colour information and a second signal conveys brightness information, e.g. NTSC-system
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Of Color Television Signals (AREA)
- Color Television Systems (AREA)
Description
- Die vorliegende Erfindung betrifft die Bildverarbeitung und insbesondere ein Verfahren und ein System zur Zerlegung von NTSC- Farbvideosignalen in deren Y-I-Q-Komponenten, um die Komprimierung aufeinanderfolgender Daten zu erleichtern.
- Weil die Reisekosten steigen und die Zeit während einer Reise selten produktiv genutzt werden kann, besteht ein zunehmendes Interesse am Einsatz von Telekonferenzen als Alternative zu geschäftlichen Besprechungen vor Ort zwischen Mitarbeitern von verschiedenen Firmenstandorten. In einem typischen System für Telekonferenzen treffen sich Teilnehmer in verschiedenen Städten oder sogar verschiedenen Ländern in speziellen Telekonferenzräumen ihrer jeweiligen Firmenstandorte. Jeder Raum verfügt normalerweise über eine Raumkamera zur Aufnahme einer Weitwinkelsicht der Teilnehmer, eine Dokumentenkamera, die auf Briefe, Zeichnungen oder andere Dokumente eingestellt werden kann, einen Raummonitor, damit die Teilnehmer in einem Raum diejenigen in dem anderen Raum sehen können und einen Dokumentenmonitor zur Ansicht von Dokumenten, die in dem anderen Raum präsentiert werden. Die Datenfernübertragung zwischen den beiden Räumen erfolgt über herkömmliche Datenfernübertragungsverbindungen wie gemietete oder geschaltete Telefonleitungen oder Satellitenkommunikationskanäle.
- Es gibt ein großes Interesse am Einsatz von Farbvideoverfahren in Telekonferenzsystemen, weil Informationen, die in Form eines Farbbildes präsentiert werden, im allgemeinen besser verstanden sind als die gleichen Informationen in Form eines monochromen Bildes oder eines Graustufenbildes.
- Selbstverständlich können herkömmliche Videoeinrichtungen und Übertragungsverfahren verwendet werden, um eine Telekonferenz mit bewegten Bildern zu ermöglichen; bei dieser Art von Telekonferenz können die Teilnehmer in dem einem Raum diejenigen in dem anderen Raum während der Konferenz auch in Bewegung sehen. Die Kosten der Datenfernübertragung für herkömmliche Telekonferenzen mit bewegten Bildern sind insbesondere bei Verwendung von Farbvideo hoch. Eine erhebliche Menge an Daten muß mit hohen Übertragungsraten übertragen werden, wodurch die Verwendung eines Übertragungsmediums mit einer großen Bandbreite notwendig wird. Die Kosten der Datenfernübertragung sind im allgemeinen proportional zur Bandbreite. Daher läuft die Forderung nach einer großen Bandbreite einem der Hauptgründe für den Einsatz von Telekonferenzen zuwider, nämlich der Kostensenkung geschäftlicher Besprechungen.
- Um die Kosten für die Datenfernübertragung zu reduzieren, können Standbild-Telekonferenzverfahren verwendet werden. Das von einer Raumkamera gelieferte Videobild wird nur in festen Intervallen oder auf Befehl eines Operators periodisch aktualisiert. Die Teilnehmer am Empfänger sehen zwischen den Aktualisierungen dasselbe "gefrorene" Raumbild. Audiosignale werden auf Echtzeitbasis übertragen, so daß keine wahrnehmbare Verzögerung in der Sprachübertragung erfolgt. Dokumentenbilder werden nur aktualisiert, wenn der Teilnehmer, der ein Dokument präsentiert, im Telekonferenzraum einen "Sende"-Knopf drückt.
- Es gibt zwei grundlegende Arten, den Bandbreitenbedarf in einem Telekonferenzsystem zu reduzieren. Zum einen kann die Datenmenge, die zur Erzeugung eines akzeptablen Bildes am Empfangsort gesendet werden muß, verringert werden. Zum anderen kann eine geringere Bandbreite verwendet werden, wobei es einfach länger dauert, die zur Erzeugung eines akzeptablen Bildes am Empfangsort erforderlichen Daten zu übertragen.
- Die für die Übertragung benötigter Bilddaten erforderliche Zeit ist in jedem Standbild-Telekonferenzsystem von Bedeutung, da diese die Frequenz bestimmt, mit der Bilder im Verlauf einer Telekonferenz aktualisiert werden können. Falls die Konferenzteilnehmer untätig auf ein erwartetes Videobild warten müssen, was als ein unnötig hoher Zeitaufwand angesehen wird, werden sie wahrscheinlich verärgert reagieren, wodurch die Effizienz der Telekonferenz reduziert wird.
- In monochromen Standbild-Telekonferenzsystemen kann die zu sendende Datenmenge verringert werden, indem bekannte Verfahren zur Graustufen-Datenkomprimierung und Lauflängencodierungsverfahren verwendet werden. Weil monochrome Bilddaten durch die Anwendung solcher Verfahren manipuliert und reduziert werden können, ist es möglich, die benötigten Daten bei geringen Bandbreiten zu übertragen, ohne daß ein übermäßig hoher Zeitaufwand für die Übertragung erforderlich ist.
- Bei einem Farbbild ist zur Definition eines einzelnen Bildelementes eine größere Menge an Daten erforderlich als für die Definition desselben Bildelementes in einem monochromen Bild. Aufgrund der Komplexität der für die Definition eines Farbbildelementes erforderlichen Daten wurde allgemein angenommen, daß Farbbilder nicht mit Hilfe derselben Arten von Datenkomprimierungsverfahren verarbeitet werden könnten, die für monochrome Bilder verwendet wurden.
- Bei bekannten Standbild-Farbvideokonferenzsystemen wurden potentielle Probleme und technische Schwierigkeiten der Komprimierung von Farbbildern vermieden, indem einfach unkomprimierte Farbdaten zwischen den Telekonferenzorten übertragen wurden. Wenn in solchen Systemen ein Übertragungsmedium mit großer Bandbreite verwendet wird, können die Bilder mit hoher Frequenz aktualisiert werden, jedoch sind auch die Kosten der Datenfernübertragung entsprechend hoch. Wenn in solchen Systemen ein Übertragungsmedium mit geringer Bandbreite verwendet wird, kann eine unerwünschte Verzögerung zwischen den Bildaktualisierungen auftreten.
- Vor der Komprimierung von Farbdaten in einem Videosystem ist es notwendig, jedes zu verarbeitende Farbsignal in seine Komponenten zu zerlegen. Jede Farbe kann entweder entsprechend ihrer RGB-Komponenten oder alternativ entsprechend der Luminanz (Y)und Chrominanz (I,Q)-Komponenten definiert werden.
- Eine solche Zerlegung des Farbsignals in dessen Komponenten ist ein wohlbekanntes Verfahren. Es ist beispielsweise in der französischen Patentschrift 2 532 130 nachzulesen, die einen Filter für die abgetasteten Daten zur Trennung des Chrominanzsignals von einem digitalisierten zusammengesetzten Videosignal beschreibt.
- Eine gegebene Farbe kann unter Anwendung bekannter Verfahren und Einrichtungen zur Vektoranalyse analysiert werden. Eine solche Einrichtung ist für die Verwendung in einem Videokonferenzsystem jedoch nicht geeignet, weil diese streng analog arbeitet und folglich nicht sofort kompatibel zu der Verarbeitungseinrichtung für digitale Daten ist, die normalerweise zur Ablaufsteuerung eines Videokonferenzsystems verwendet wird. Außerdem stellt die Vektoranalyseeinrichtung einen zusätzlichen Kostenpunkt in einem Videokonferenzsystem dar. Schließlich trennt die Vektoranalyseeinrichtung Luminanz- und Chrominanzinformationen nicht mit der für den Einsatz in einer Videokonferenz erforderlichen Genauigkeit.
- Ebenfalls bekannte Verfahren zur Zerlegung eines Farbsignals sind die Kammfilterverfahren. Ein Kammfilterverfahren ist ein räumliches Mittelungsverfahren, bei dem Abtastwerte von aufeinanderfolgenden Aktivvideozeilen einen gewichteten Mittelwert bilden, der zur Bestimmung von Luminanz und Chrominanz eines gegebenen Punktes in einem Bild verwendet werden kann. So wird in einer Patentzusammenfassung in "Patent abstract of Japan", Vol. 4, Nr. 181, 1980, eine Einrichtung zum Trennen von Luminanz- und Chrominanzsignalen mit Hilfe eines Filters, in der ein Kammzeilenfilter verwendet wird, beschrieben. Die GB-Patentschrift 2 130 840 betrifft einen Rahmen-zu-Rahmen-Kammfilter zur Trennung von Chrominanz- und Luminanzsignalen von zusammengesetzten Videosignalen, die störende Verzerrungen um die Ränder sich bewegender Objekte erzeugen. Die US-Patentschrift 4 468 689 beschreibt ebenfalls eine Farbtrennungsschaltung mit einem Kammfilter zur Erzeugung von Ausgangssignalen entsprechend der Summe aus und der Differenz zwischen einem zusammengesetzten Eingangsvideosignal und einem Signal, das durch Verzögerung des zusammengesetzten Eingangsvideosignals um eine horizontale Abtastperiode erzeugt wurde.
- Das Kammfilterverfahren ist für die Anwendung in einer Videokonferenz jedoch nicht wünschenswert, da die erforderliche Mittelwertbildung von Zeile zu Zeile im allgemeinen zu einem Verlust der Bildauflösung in vertikaler Richtung führt.
- Daher stellt die vorliegende Erfindung ein Verfahren und ein System zur Zerlegung von analogen NTSC-Standardvideosignalen in ihre Y-I-Q- oder Luminanz- und Chrominanzkomponenten dar. Das Verfahren verwendet einfache digitale Operationen, die mit einer standardisierten Einrichtung zur Verarbeitung digitaler Daten sofort und schnell durchgeführt werden können. Die Bildauflösung bleibt unverändert hoch.
- Das Verfahren beinhaltet das Digitalisieren einer den Farbsignalnormen entsprechenden Analogeingabe zu vorbestimmten Abtastzeitpunkten, die wiederkehrenden Phasenwinkelverschiebungen bezüglich der Phase der Farberkennungskomponente der Analogeingabe entsprechen, wobei die Verschiebungen jene um 0º, 90º, 180º und 270º bezüglich der Farberkennungsphase enthalten, das Speichern der digitalisierten Bildelementwerte in Speicherstellen, die Bildelementpositionen in vier aufeinanderfolgenden Bildfeldern entsprechen, die zwei aufeinanderfolgende Bilder repräsentieren, das Festlegen von Werten für die Y-Komponente für ausgewählte Bildelemente in Abhängigkeit von der Summe gespeicherter digitalisierter Bildelementwerte, die entsprechende zusammenfallende Bildelementpositionen in den zwei aufeinanderfolgenden Bildern besetzen, und das Festlegen von Werten für die C-Komponente für ausgewählte Bildelemente in Abhängigkeit von der Differenz zwischen gespeicherten, digitalisierten Bildelementwerten, die entsprechende zusammenfallende Bildelementpositionen in den zwei aufeinanderfolgenden Bildern besetzen. Das Verfahren umfaßt ferner den Schritt des Ableitens von Komponentenwerten I und Q der Chrominanzkomponente auf der Grundlage des festgelegten C-Wertes für jedes ausgewählte Bildelement, wobei dieser Schritt des Ableitens darin besteht, die festgelegten C-Werte für zwei aufeinanderfolgende Bildelemente p und p-1 in einer gegebenen Zeile zurückzuholen, die unten angegebenen Gleichungen für I und Q zu lösen,
- I = -1.414[C(p)*sin(a-135) - C(p-1)*sin(a)]
- Q = +1.414[C(p)*cos(a-135) - C(p-1)*cos(a)],
- wobei a die Abtastwinkelphase für eine Bildelementposition p ist, und die berechneten I- und Q-Werte jedem der Bildelemente p und p-1 zuzuweisen.
- Details einer Hauptausführung der Erfindung können aus der folgenden technischen Beschreibung leichter ermittelt werden, wenn diese in Verbindung mit den beigelegten Zeichnungen gelesen wird, in denen folgendes gilt:
- Fig. 1 ist ein Blockdiagramm des Übertragungsteils eines Videokonferenzsystems, welches das Gebiet zeigt, auf dem die vorliegende Erfindung angewandt wird;
- Fig. 2 ist der Verlauf eines analogen Farbvideosignals;
- Fig. 3 ist eine vergrößerte Ansicht eines Teils des Farbvideosignals, welche die Phase eines Farberkennungszwischenträgers für zwei aufeinanderfolgende Darstellungen des Bildes zeigt;
- Fig. 4 ist eine tabellarische Darstellung der Phase des Farberkennungszwischenträgers für die ungeraden und geraden Felder von zwei aufeinanderfolgenden Bildern;
- Fig. 5 ist ein Blockdiagramm der zur Ausführung der Erfindung erforderlichen Hardware;
- Fig. 6 ist eine Darstellung von Bildabtastphasenwinkeln und Videoinformationen, die bei bestimmten Winkeln sofort bestimmt werden können; und
- Fig. 7 ist ein Flußdiagramm, das zur Erläuterung der logischen Schritte verwendet wird, die bei der Umsetzung der Erfindung in die Praxis durchgeführt werden.
- Fig. 1 ist ein vereinfachtes Blockdiagramm bestimmter Komponenten in einem Videokonferenzsystem, welches das Gebiet zeigen soll, auf dem die vorliegende Erfindung angewandt wird. Ein Farbbild, wie zum Beispiel das durch ein Dokument 10 präsentierte, wird mit Hilfe einer herkömmlichen Videokamera 12 erfaßt. Die erfaßten Daten werden digitalisiert und in Datenerfassungspuffern gespeichert. Wie später detaillierter erläutert wird, werden zwei aufeinanderfolgende Darstellungen desselben Bildes erfaßt, digitalisiert und in den Puffern 14 gespeichert. Jedes Bild besteht aus zwei Feldern (gerade und ungerade), wobei jedes Feld in einem separaten Puffer gespeichert wird.
- Die digitalisierten Daten werden in der Bildverarbeiterlogik 16 verarbeitet, welche die Farbvideodaten Bildelement-für-Bildelement in Y-I-Q-Komponenten zerlegt, wie noch detaillierter beschrieben wird. Die zerlegten Daten können Bildkomprimierungsvorgängen unterzogen werden, obgleich solche Vorgänge kein Bestandteil der vorliegenden Erfindung sind, bevor diese zu einem Modem 18 übertragen werden, das die Daten für die Übertragung über eine herkömmliche Datenfernübertragungsverbindung zu einem Empfangsmodem 22 in das richtige Format bringt. In einer Hauptausführung besteht die Datenfernübertragungsverbindung aus gewöhnlichen Wählleitungen. Empfangene Daten werden zu einer Bildverarbeitungslogik 24 am Empfangsort übertragen. Die Logik 24 führt im Grunde umgekehrte Operationen aus wie die Logik 16 an der Sendestelle. Die Logik 16 dekomprimiert die Daten und setzt die empfangenen Y-I-Q-Daten wieder zu zusammengesetzten Farbvideodaten zusammen. Die Daten werden in einem Bildpufferspeicher 26 gespeichert. Die aus dem Pufferspeicher 26 zurückgeholten Daten werden in ein analoges Format konvertiert und zu einem herkömmlichen Monitor 28 übertragen.
- Die unter Verwendung der vorliegenden Erfindung verarbeiteten Daten müssen NTSC-Normen entsprechen.
- Das Format eines NTSC-Farbfernsehsignals ist durch die Zeilenrate, die Synchronisierungssignale, das Feldformat, das Bildformat und den Referenzfarbzwischenträger spezifiziert.
- Ein NTSC-Bild besteht aus zwei Feldern, von denen jedes 262,5 Zeilen lang ist, woraus sich 525 Zeilen pro Bild ergeben. Das erste oder ungerade Feld besteht aus zwanzig Zeilenzeiten von Synchronisierungssignalen, gefolgt von 242,5 Zeilen Aktivvideo. Das zweite oder gerade Feld besteht aus 19,5 Zeilenzeiten von Synchronisierungssignalen, gefolgt von 243 Zeilen Aktivvideo. Die erste halbe Zeile von Aktivvideo im geraden Feld wird gelöscht.
- Der Referenzfarbzwischenträger ist ein kontinuierliches Sinussignal, dessen Frequenz 3,579545 MHz beträgt. Die Länge einer einzelnen Zeile ist definiert als 227,5 mal die Periode des Farbzwischenträgers. Ein Farberkennungssignal wird erhalten, indem neun Zyklen des Referenzfarbzwischenträgers am Beginn jeder aktiven Videoabtastzeile eingefügt werden. Die Phase des Farberkennungssignals wird relativ zur Anstiegsflanke des horizontalen Synchronisierungsimpulses jeder Zeile gemessen und beträgt nominell entweder 0 Grad oder 180 Grad.
- Fig. 2 ist das Signal einer Abtastzeile in einem Fernsehsignal, das NTSC-Normen entspricht. Das Signal beinhaltet einen horizontalen Synchronisierungs (Sync)-Impuls 30, ein Farberkennungssignal 32 und Aktivvideo 34. Der Aktivvideoanteil 34 ist ein zusammengesetztes Signal, das Luminanzinformationen (Graustufen) und Chrominanzinformationen (Farbe) enthält. Die Luminanz wird an jedem Punkt des Signals durch eine Basisbandsignalkomponente angezeigt und mittels der Spannungsdifferenz zwischen diesem Punkt des Signals und der Spitze des horizontalen Synchronisierungsimpulses gemessen. Die Luminanz am Punkt 36 des Signals wird zum Beispiel durch die Spannungsdifferenz V repräsentiert.
- Die Chrominanzinformation an einem gegebenen Punkt des Signals ist in der relativ niedrigen, jedoch hochfrequenten Amplitudenmodulation enthalten, die zu der Basisband- oder Luminanzsignal addiert wird. Die Hochfrequenzfarbsignale enthalten Informationen über den Farbton und die Sättigung der Farbe an diesem Punkt in dem zusammengesetzten Videosignal. Farbton ist eine andere Bezeichnung für Farbe. Beispielsweise besitzen Rot und Grün verschiedene Farbtöne, Rosa und Rot jedoch denselben Farbton. Die Sättigung ist ein Maß dafür, wieviel von einer reinen Farbe durch Mischung mit Weiß verdünnt wurde. Rosa besitzt zum Beispiel den gleichen Farbton wie Rot, jedoch eine viel geringere Sättigung. In einem NTSC-Videosignal bestimmt die Phase des Farbmodulationssignals relativ zur Phase des Farberkennungssignals den Farbton des Videobildes an diesem Punkt. Die Spitzen- Spitzen-Amplitude des Farbmodulationssignals bestimmt den Sättigungsgrad.
- Ein NTSC-Farbsignal kann definiert werden, indem eines von zwei Koordinatensystemen verwendet wird. Das bekanntere System ist das RGB-System. Im RGB-System wird eine Farbe durch ihren Rot-, Grün- und Blauanteil definiert. Dieselbe Farbe kann auch über Y- I-Q-Komponenten definiert werden. Die Luminanz einer Farbe wird durch die Y-Komponente angezeigt. Die Chrominanz dieser Farbe wird durch die I- und Q-Komponenten angezeigt. Es besteht ein Eins-zu-Eins-Verhältnis zwischen RGB-Koordinaten und Y-I-Q-Koordinaten. Die formellen Umformungen zwischen den beiden Koordinatensystemen können folgendermaßen angegeben werden:
- und
- Die vorliegende Erfindung ist ein Verfahren zur Zerlegung der digitalen Darstellung aufeinanderfolgender Abtastwerte des analogen Signals, um Y-I-Q-Werte festzulegen, die sofort komprimiert werden können. Das Verfahren, das später detaillierter beschrieben wird, beruht auf einer eindeutig definierten Reihe von Beziehungen hinsichtlich der Phase des Farberkennungssignals relativ zu dem horizontalen Synchronisierungsimpuls auf einer Zeile-zu-Zeile-, Feld-zu-Feld- und Bild-zu-Bild-Basis.
- Da jede Aktikvideozeile in einem NTSC-Signal per Definition 227,5 mal die Periode des Farberkennungssignals beträgt, ändert sich die Phase des Farberkennungssignals relativ zum horizontalen Synchronisierungsimpuls für eine gegebene Zeile um 180 Grad in aufeinander folgenden Zeilen innerhalb eines einzelnen Feldes. Falls beispielsweise die Phase des Farberkennungssignals für Zeile fünfundzwanzig in einem geraden Feld 0 Grad beträgt, dann beträgt die Phase des Farberkennungssignals für Zeile sechsundzwanzig in demselben Feld 180 Grad.
- Da außerdem übereinstimmend numerierte Zeilen in den beiden Feldern (ungerade und gerade) in einem einzelnen Bild durch 263 Zeilenzeiten voneinander getrennt sind, ändert sich die Phase des Farberkennungssignals auch bei 180 Grad zwischen solchen Zeilen in den beiden Feldern. Falls beispielsweise die Phase des Farberkennungssignals für Zeile vierzig des ungeraden Feldes 0 Grad beträgt, dann beträgt die Phase des Farberkennungssignals für Zeile vierzig im geraden Feld 180 Grad.
- Da es schließlich 525 Zeilen pro Bild gibt, ändert sich die Phase des Farberkennungssignals außerdem bei 180 Grad zwischen übereinstimmend numerierten Zeilen in aufeinander folgenden Bildern. Falls beispielsweise die Phase des Farberkennungssignals für Zeile dreißig des geraden Feldes in einem Bild 0 Grad beträgt, so beträgt die Phase des Farberkennungssignals für Zeile dreißig des geraden Feldes des nächsten Bildes 180 Grad.
- Fig. 3 ist eine vergrößerte Darstellung zweier analoger Signale, die auf horizontale Synchronisierungsimpulse folgen. Jedes Signal beinhaltet einen Farberkennungsabschnitt (CB), der aus neun Zyklen einer Sinuswelle mit konstanter Amplitude mit der Frequenz des Referenzfarbzwischenträgers besteht. Jedes Signal beinhaltet ferner einen Aktivvideoabschnitt (AV), in dem die Amplitude und die Phase des Signals gemäß der Farben des abgetasteten Bildes variieren. Das obere der beiden Signale könnte jede gegebene Aktivvideozeile darstellen. Das untere der beiden Signale würde entweder die nächste Zeile in demselben Feld, die übereinstimmend numerierte Zeile in dem nächsten Feld oder die übereinstimmend numerierte Zeile in dem nächsten Bild darstellen.
- Die Periodizität der Phasenänderungen im Farberkennungssignal relativ zum horizontalen Synchronisierungsimpuls legt eine Superbildstruktur für ein NTSC-Signal fest. Wie in Fig. 4 gezeigt, besteht ein Superbild aus zwei aufeinanderfolgenden Bildern (Bild A und Bild B), wobei jeder sowohl ungerade als auch gerade Felder aufweist. In Fig. 4 wird die nominelle Phase des Farberkennungssignals für die ersten vier Zeilen von Aktivvideo für jedes der Felder in diesem Superbild gezeigt.
- In einem System, das die vorliegende Erfindung ausführt, wird jedes der vier Felder in einem Superbild erfaßt und in einem logisch separaten Datenerfassungspuffer gespeichert. Die Grundkomponenten eines solchen Systems werden unter Bezugnahme auf Fig. 5 beschrieben. Das durch die Kamera 12 erzeugte analoge Videosignal wird zu einem Analog-Digital-Umsetzer 38 übertragen, der das analoge Signal auf periodischer Basis abtastet und Digitaldarstellungen des abgetasteten analogen Wertes erzeugt. Die Abtastrate ist einzigartig für die vorliegende Erfindung, wie später detaillierter erläutert wird. In einer Hauptausführung der Erfindung besitzen die Digitaldarstellungen eine Auflösung von 28, was bedeutet, daß das digitale Signal einen von 256 Werten annehmen kann.
- Analoge Videosignale von der Kamera 12 werden außerdem zu einem herkömmlichen Farberkennungssignaldetektor 42 übertragen. Die Operationen der Kamera 12 und des Analog-Digital-Umsetzers 38 werden mittels einer Zeitsteuerungsschaltung mit freiem Durchlauf 40 synchronisiert um zu gewährleisten, daß das analoge Signal nur zu vorbestimmten Zeitpunkten abgetastet und digitalisiert wird. Die Zeitsteuerungsschaltung 40 steuert außerdem eine Multiplexerschaltung 44, welche das digitale Signal auf vier Pufferspeicher 46, 48, 50 und 52 verteilt, die in zwei Bildpuffern 54 und 56 organisiert sind. Der Einfachheit halber soll der Bildpuffer 54 das Bild A des Videobildes aufrechterhalten, während der Bildpuffer 56 das Bild B desselben Videobildes aufrechterhält. Wie in der Fig. angedeutet, speichert Puffer 46 das ungerade Feld von Bild A, Puffer 48 das gerade Feld von Bild A, Puffer 50 speichert das ungerade Feld von Bild B und Puffer 52 speichert das gerade Feld von Bild B.
- Die Puffer sind mit dem Bildverarbeiter 16 verbunden, der gespeicherte Digitalwerte aus nicht aufeinanderfolgenden Feldpuffern unter Verwendung einfacher Verarbeitungsalgorithmen verarbeitet, um diese Werte in Y-I-Q-Komponenten zu zerlegen.
- Was die Y-I-Q-Komponenten betrifft, ist ein zusammengesetztes NTSC-Signal an der Bildelementposition (x,y) und zur Zeit t definiert als:
- s(x,y,t) = Y(x,y) + I(x,y)cos(B(t)) + Q(x,y)sin(B(t)), Gl. 1
- wobei
- Y(x,y) die Luminanz ist,
- I(x,y) die I-Komponente der Chrominanz ist,
- Q(x,y) die Q-Komponente der Chrominanz ist,
- B(t) gleich 2 * Pi * f(t) ist und
- f die Frequenz des Referenzfarbzwischenträgers ist.
- Für eine gegebene Farbe ändert sich keine der Y-I-O-Komponenten in Abhängigkeit von der Position eines abgetasteten Punktes innerhalb des abgetasteten Bildes. Andererseits variieren die Werte des zusammengesetzten Signals und der Chrominanzkomponente, die durch die beiden letzten Terme der obigen Gleichung repräsentiert wird, in Abhängigkeit von der Position des abgetasteten Punktes innerhalb des Bildes.
- Die oben erwähnte NTSC-Superbildstruktur legt ein Signalformat fest, in dem die Phase des Farberkennungssignals relativ zum horizontalen Synchronisierungsimpuls von Bild zu Bild umgekehrt ist. Daraus folgt, daß der Chrominanzanteil eines zusammengesetzten NTSC-Signals seine Phase ebenfalls von einem Bild zum nächsten umkehrt. Die Aktivvideoanteile (AV) der beiden in Fig. 3 gezeigten Signale zeigen diese Phasenumkehr von einem Bild zum nächsten, wobei dasselbe Bild in beiden Bildpuffern gespeichert ist. Die Umkehr oder 180º-Änderung in der Chrominanzphase von einem Bild zum nächsten ist ein Schlüssel zur Demodulation oder Zerlegung eines digitalisierten zusammengesetzten NTSC-Signals in dessen Luminanz- und Chrominanzkomponenten.
- Wie zuvor unter Bezugnahme auf Fig. 5 beschrieben wurde, werden zwei aufeinanderfolgende Bilder erfaßt, digitalisiert und in den Pufferspeichern der Bildpuffer 54 und 56 gespeichert. In einem Standbild-Telekonferenzsystem bestehen die zwei aufeinanderfolgenden Bilder tatsächlich aus demselben Bild oder derselben Szene im Raum. Bei einer Bildelementstufe sind zwei Bildelemente vorhanden, eines in jedem Puffer, die das Ergebnis der Abtastung desselben Bildpunktes oder Raumpunktes sind.
- Die beiden digitalisierten Werte von den verschiedenen Bildpuffern können durch einfache Additions- und Subtraktionsoperationen verknüpft werden, um die Luminanz- und Chrominanzwerte für einen gegebenen Bildpunkt abzuleiten. Einfach ausgedrückt, wird der Luminanzwert für einen gegebenen Punkt festgelegt, indem die Digitalwerte für entsprechende Bildelementpositionen in den beiden Bildpuffern addiert werden und das Ergebnis durch zwei geteilt wird. Mathematisch bedeutet dies, falls das in einer gegebenen Bildelementposition im Bildpuffer A gespeicherte Bildelement einen Wert Y + I*cos(B(t)) + Q*sin(B(t)) hat, so hat das entsprechende Bildelement im Bildpuffer B einen Wert Y + I*cos(B(t)+180) + Q*sin(B(t)+180). Da der Cosinus und der Sinus eines Winkels + 180 Grad den gleichen Wert, jedoch das entgegengesetzte algebraische Zeichen von Sinus und Cosinus für den Winkel selbst haben, annulliert die Addition der gespeicherten Digitalwerte effektiv die I- und Q-Komponenten des zusammengesetzten Signals, wobei ein Ergebnis von 2Y stehenbleibt. Die Division durch zwei liefert die Y- oder Luminanz-Komponente für einen gegebenen Bildpunkt.
- Die Chrominanzkomponente desselben Bildpunktes kann durch Subtraktion des zweiten gespeicherten Digitalwertes von dem ersten erhalten werden. Der Subtraktionsvorgang eliminiert die Y-Komponente und liefert einen Wert von 2C, wobei C aus den I- und Q- Werten für den Bildpunkt zusammengesetzt ist.
- Die Auftrennung des zusammengesetzten NTSC-Signals in dessen Luminanz- und Chrominanzkomponenten ist bei einer Rate zulässig, bei der die analogen Videodaten abgetastet werden können. Wie unten gezeigt wird, bietet die sorgfältige Auswahl der bevorzugten Abtastrate mehrere Rechenvorteile bei der weiteren Zerlegung der Chrominanzkomponenten in deren I- und Q-Komponenten.
- Aus Gründen, die zum Verständnis der vorliegenden Erfindung nicht wesentlich sind, beträgt die bevorzugte Abtastrate 8/3 der Farbzwischenträgerfrequenz, was zu einer Phasenänderung von 135 Grad zwischen aufeinander folgenden Abtastwerten in derselben Zeile führt. Daraus folgt, daß es nur acht mögliche Werte für einen Abtastwinkel gibt, nämlich 0, 135, 270, 45, 180, 315, 90 und 225 Grad, und daß die Abtastwerte für aufeinander folgende Bildelementpositionen in einer Zeile in der angegebenen Reihenfolge auftreten.
- Nach acht Abtastpunkten wiederholt sich die Winkelreihe. Aufgrund der periodischen Struktur des NTSC-Signalformates wiederholt sich die Abtastphase außerdem alle vier Zeilen für eine gegebene Position innerhalb einer Zeile. Wenn die Periodizität innerhalb einer Zeile mit der Periodizität einer Reihe von Zeilen verknüpft wird, entsteht eine Matrix aus Abtastwinkeln, die acht Bildelemente breit und vier Zeilen tief ist. Diese Matrix wiederholt sich ungeachtet der Anzahl der Bildelementpositionen innerhalb des Bildes ein ganzes Bild hindurch. Diese acht Bildelemente breite, über vier Zeilen gehende Matrix wird in Fig. 6 zusammen mit den Abtastwinkeln für eine fünfte Bildzeile gezeigt. Wie oben erwähnt, sind die Abtastwinkel für die fünfte Bildzeile identisch mit den Abtastwinkeln für die erste Bildzeile in der Matrix.
- Weil die Matrix sich ungeachtet der Größe des Bildes überall im Bild wiederholt, können die Sinusterme in der Y-I-Q-Definition eines NTSC-Signals nur eine sehr begrenzte Reihe von Werten annehmen. Diese Eigenschaft wird genutzt, um die Berechnungen für die Zerlegung der Chrominanz in die I- und Q-Komponenten zu vereinfachen.
- Das oben beschriebene Verfahren bestimmt die Luminanz (Y)- und die Chrominanz (C)-Werte für jedes Bildelement in einem Bild durch einfache Additions- und Subtraktionsoperationen. Die Chrominanzwerte für zwei aufeinanderfolgende Bildelemente in einer Zeile können zur Ableitung der I- und Q-Werte für jedes der beiden Bildelemente verwendet werden, basierend auf der Annahme, daß die I- und Q-Werte über einen zwei Bildelemente breiten Bereich konstant sind. Falls der Chrominanzwert C bei der Bildelementposition p als C(p) identifiziert wird und der Chrominanzwert für das vorangegangene Bildelement als C(p-1) identifiziert wird und die Abtastphase zwischen aufeinander folgenden Bildelementpositionen in einer Zeile sich um 135 Grad ändert, definieren die beiden folgenden Gleichungen die Chrominanzwerte:
- C(p) = I*cos(a) + Q*sin(a) Gl. 2
- C(p-1) = I*cos(a-135) + Q*sin(a-135) Gl. 3
- wobei a der aktuelle Abtastwinkel bei der Bildelementposition p ist.
- Diese beiden Gleichungen können wie folgt gelöst werden:
- I = -1,414[C(p)*sin(a-135) - C(p-1)*sin(a)] Gl. 4
- Q = +1,414[C(p)*cos(a-135) - C(p-1)*sin(a)] Gl. 5
- Wie oben angegeben, gibt es nur acht mögliche Werte für den Abtastwinkel. Daher ist die Anzahl der Lösungen für die oben angegebenen Gleichungen 4 und 5 begrenzt. Die Lösung kann im Matrixformat dargestellt werden als:
- wobei die Werte für die ±m'-Terme mit dem Abtastwinkel a variieren. Es folgt eine Tabelle der ±m'-Terme für die verschiedenen möglichen Abtastwinkel: Abtastwinkel
- Es sei darauf hingewiesen, daß die einzigen möglichen Werte für die ±m'-Terme 0,000; +/-1,000 und +/-1,414 sind.
- Wie oben gezeigt wurde, können die Y- und C-Komponenten eines Bildelementes in einem zusammengesetzten NTSC-Signal durch einfache Addition und Subtraktion von Digitalwerten in entsprechenden Positionen in zwei aufeinanderfolgenden Bildern bestimmt werden. Ferner kann die C-Komponente verwendet werden, um die Iund Q-Werte für ein gegebenes Bildelement zu berechnen, indem die in Matrixform dargestellten Gleichungen, wie die obige Gleichung 6, verwendet werden.
- Die I- und Q-Werte können für bestimmte Abtastwinkel auch ohne die für Gleichung 6 erforderlichen Berechnungen direkt abgeleitet werden. Innerhalb der Reihe möglicher Abtastwinkel haben vier (0, 90, 180, 270) eine spezielle Bedeutung. Bei diesen Winkeln ist einer der beiden Terme aus Gleichung 2 gleich Null, während der andere gleich dem positiven oder negativen Wert von I oder Q ist. Das heißt, Gleichung 2 kann für die folgenden Ioder Q-Werte bei den angegebenen Abtastwinkeln direkt gelöst werden:
- Abtastwinkel C(p)
- 0 +I
- 90 +Q
- 180 -I
- 270 -Q
- In Fig. 6 werden die I- und Q-Werte gezeigt, die direkt bei den angegebenen Abtastwinkeln erhalten werden können. Es sei wiederum darauf hingewiesen, daß C(p) selbst durch die einfache Subtraktion von Digitalwerten, die in entsprechenden Bildelementpositionen in den beiden Bildpuffern gespeichert sind, erhalten werden kann. Daher können die I- und Q-Werte über das Subtraktionsverfahren bei jeder vierten Bildelementposition im Bild direkt erhalten werden, wie in der Fig. angegeben.
- In einer Ausführung der Erfindung wird der Luminanz- oder Y-Wert bei jeder Bildelementposition durch das beschriebene Additionsverfahren berechnet, die I-Komponente wird erhalten, indem das Subtraktionsverfahren für Bildelemente angewandt wird, die durch Abtasten bei den Winkeln von 0 und 180 Grad erhalten werden, und die Q-Komponente wird erhalten, indem das Subtraktionsverfahren für Bildelemente angewandt wird, die durch Abtasten bei Winkeln von 90 und 270 Grad erhalten werden. I- und Q-Komponenten für Bildelemente bei anderen als den angegebenen Winkeln können durch Interpolieren zwischen direkt erhaltenen I- und Q-Werten erhalten werden.
- Fig. 7 ist ein Flußdiagramm, das die oben erwähnte Ausführung beschreibt. Zwei aufeinanderfolgende Videodarstellungen desselben Bildes werden erhalten (Block 710), indem das analoge Videosignal bei Abtastwinkeln, die Vielfache von 135 Grad sind, abgetastet wird. Die resultierenden Digitalwerte werden in vier Feldpuffern (Block 712) gespeichert. Wie in der Fig. angedeutet, speichern die Puffer 1 und 2 die ungeraden und geraden Felder jeweils im Bild A, während die Puffer 3 und 4 die ungeraden und geraden Felder jeweils im Bild B speichern.
- Das Verfahren der Zerlegung des digitalisierten zusammengesetzten Signals in dessen Y-I-Q-Komponenten beginnt bei dem ersten Bildelement im Bild (Block 714). Die in den zusammenfallenden oder entsprechenden Bildelementpositionen in den Puffern 1 und 3 gespeicherten Digitalwerte werden addiert (Block 716), und das Ergebnis wird durch 2 dividiert (Block 718), um die Y-Komponente für das Bildelement zu erhalten.
- Falls der Abtastwinkel kein Vielfaches von 90 Grad ist (Block 720), wird der erhaltene Y-Wert an einer geeigneten Stelle in einem Bildelementspeicher (Block 722) gespeichert, und das nächste Bildelement wird für das Zerlegungsverfahren ausgewählt (Block 724).
- Die Folge der oben beschriebenen Schritte wird wiederholt, bis der Abtastwinkel ein Vielfaches von 90 Grad ist. Wenn dies eintritt, werden die in der ausgewählten Bildelementposition in den Puffern 1 und 3 gespeicherten digitalisierten Werte subtrahiert (Block 726), und das Ergebnis wird durch zwei dividiert (Block 728), um einen Wert zu erhalten, der in Abhängigkeit vom Abtastwinkel +/-I oder +/-Q sein kann.
- Falls der Abtastwinkel 0 oder 180 Grad beträgt (Block 730), ist der erhaltene Wert +/-I. Sind dieser Wert und der I-Wert, der vier Bildelemente früher in derselben Zeile erhalten würde, gegeben, kann ein Interpolationsverfahren durchgeführt werden (Block 732), um I-Werte für die dazwischen liegenden Bildelementpositionen zu erhalten.
- Falls der Abtastwinkel nicht gleich 0 oder 180 Grad ist, so muß dieser 90 oder 270 Grad betragen, was bedeutet, daß das bei Block 728 erhaltene Ergebnis +/-Q ist. Es kann ein Interpolationsverfahren (Block 734) durchgeführt werden, um Q-Werte für die drei dem gegenwärtigen Bildelement vorangehenden Bildelemente zu erhalten.
- Alle erhaltenen Y-I-Q-Werte werden an geeigneten Stellen für Bildelementpositionen im Bildelementspeicher gespeichert, wo diese für Bildkomprimierungsvorgänge zur Verfügung stehen. Es ist zu beachten, daß ein Y-Wert direkt erhalten und für jede Bildelementposition gespeichert wird. I- und Q-Werte werden alle vier Bildelemente direkt und bei anderen Bildelementpositionen indirekt über Interpolation erhalten.
Claims (4)
1. Verfahren zum Zerlegen von NTSC-Farbvideosignalen in Luminanz
(Y)- und Chrominanz (C)- Komponenten für eine Verwendung in
einem Einzelbild-Videosystem mit einer Analogeingabe, die NTSC-
Farbsignalstandards entspricht, welches die folgenden Schritte
umfaßt:
Digitalisieren der Analogeingabe zu vorbestimmten
Abtastzeitpunkten, die wiederkehrenden Phasenwinkelverschiebung bezüglich
der Phase der Burstkomponente der Analogeingabe entsprechen,
wobei die Verschiebungen jene um 0º, 90º, 180º und 270º
bezüglich der Burstphase enthalten,
Speichern der digitalisierten Bildelementwerte in
Speicherstellen, die Bildelementpositionen in vier aufeinanderfolgenden
Bildfeldern entsprechen, die zwei aufeinanderfolgende Rahmen
repräsentieren,
Festlegen von Werten für die Y-Komponente für ausgewählte
Bildelemente in Abhängigkeit von der Summe gespeicherter,
digitalisierter Bildelementwerte, die entsprechende zusammenfallende
Bildelementpositionen in den zwei aufeinanderfolgenden Rahmen
besetzen und
Festlegen von Werten für die C-Komponente für ausgewählte
Bildelemente in Abhängigkeit von der Differenz zwischen
gespeicherten, digitalisierten Bildelementen, die entsprechende
zusammenfallende Bildelementpositionen in den zwei aufeinanderfolgenden
Rahmen besetzen,
wobei das Verfahren dadurch gekennzeichnet ist, daß dieses den
Schritt des Ableitens von Komponentenwerten I und Q der
Chrominanz auf der Grundlage des festgelegten C-Wertes für jedes
ausgewählte Bildelement umfaßt, wobei der Schritt des Ableitens die
folgenden weiteren Schritte umfaßt:
Zurückholen der festgelegten C-Wertes für zwei
aufeinanderfolgende Bildelemente p und p-1 in einer gegebenen Zeile,
Lösen der unten angegebenen Gleichungen für I und Q
I = -1.414[C(p)*sin(a-135) - C(p-1)*sin)a)]
Q = +1.414[C(p)*cos(a-135) - C(p-1)*cos(a)]
wo a die Abtastwinkelphase für eine Bildelementposition p ist
und
Zuweisen der berechneten I- und Q-Werte jedem der Bildelemente p
und p-1.
2. Verfahren nach Anspruch 1, bei welchem die Abstastwinkel
voneinander um 135º-Inkremente verschoben und auf Winkel von 0º,
135º, 270º, 45º, 180º, 315º, 90º und 225º eingeschränkt sind.
3. System zum Zerlegen von NTSC-Farbvideosignalen, die von einer
Videokamera geliefert werden, welches folgendes aufweist:
ein Paar von Bildrahmenpuffern, wobei jeder einen Puffer für
ungerade Felder und einen Puffer für gerade Felder aufweist,
Mittel zum Abtasten der analogen Signale, die von der
Videokamera zu vorbestimmten Abtastzeitpunkten erzeugt werden, die
wiederkehrenden Phasenwinkelverschiebungen bezüglich der Phase der
Burstkomponente der analogen Signale entsprechen, wobei die
Verschiebungen jene um ±90º und 180º bezüglich der Burstphase
enthalten,
Mittel zum Digitalisieren analoger Signale, die von den
Abtastmitteln erzeugt werden,
Mittel zum Lenken eines ersten Rahmens digitalisierter Daten in
einen der Bildrahmenpuffer und eines zweiten Rahmens
digitalisierter Daten in den anderen der Bildrahmenpuffer,
Mittel zum Verarbeiten digitalisierter Daten, die bei
ausgewählten zusammenfallenden Bildelementpositionen in entsprechenden
Feldpuffer in dem Paar von Rahmenpuffern gespeichert sind, wobei
die Verarbeitungsmittel ferner folgendes aufweisen: Mittel zum
Addieren der digitalisierten Daten, um einen Luminanzwert für
das Bildelement bei der ausgewählten Position abzuleiten und
Mittel zum Subtrahieren der digitalisierten Daten, um einen
Chrominanzwert für dasselbe Bildelement abzuleiten, wobei das
System dadurch gekennzeichnet ist, daß dieses ferner folgendes
aufweist:
Mittel zum Zurückholen festgelegter Chrominanzwerte für zwei
aufeinanderfolgende Bildelemente p und p-1 in einer gegebenen
Zeile,
Mittel zum Lösen der folgenden Gleichungen für I und Q:
I = -1.414[C(p)*sin(a-135) - C(p-1)*sin(a)]
Q = +1.414[C(p)*cos(a-135) - C(p-1)*cos(a)]
wo C der festgelegte Chrominanzwert für das Bildelement in der
angezeigten Position ist und a die Abtastwinkelphase für das
Bildelement p ist und
Mittel zum Zuweisen der berechneten I- und Q-Werte jedem der
Bildelemente p und p-1.
4. System nach Anspruch 3, bei welchem die Abtastwinkel
voneinander um 135º-Inkremente verschoben und auf Winkel von 0º, 135º,
270º, 45º, 180º, 315º, 90º und 225º eingeschränkt sind.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US06/728,013 US4710801A (en) | 1985-04-29 | 1985-04-29 | System for decomposition of NTSC color video signals using two frame buffers |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3686505D1 DE3686505D1 (de) | 1992-10-01 |
DE3686505T2 true DE3686505T2 (de) | 1993-04-08 |
Family
ID=24925073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE8686103741T Expired - Fee Related DE3686505T2 (de) | 1985-04-29 | 1986-03-19 | Verfahren und system zur zerlegung von ntsc-farbvideosignalen. |
Country Status (5)
Country | Link |
---|---|
US (1) | US4710801A (de) |
EP (1) | EP0199964B1 (de) |
JP (1) | JPS61251289A (de) |
CA (1) | CA1247233A (de) |
DE (1) | DE3686505T2 (de) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5075769A (en) * | 1987-03-03 | 1991-12-24 | Polaroid Corporation | Video identification card system |
GB9004687D0 (en) * | 1990-03-02 | 1990-04-25 | Indep Broadcasting Authority | Improvements in or relating to colour television |
US5453787A (en) * | 1993-12-10 | 1995-09-26 | International Business Machines Corporation | Variable spatial frequency chrominance encoding in software motion video compression |
US5798948A (en) * | 1995-06-20 | 1998-08-25 | Intel Corporation | Method and apparatus for video filtering |
WO2000018127A1 (en) | 1998-09-21 | 2000-03-30 | Sony Corporation | Coding device and method, and decoding device and method, and recorded medium |
JP2002142149A (ja) * | 2000-11-06 | 2002-05-17 | Mega Chips Corp | 画像処理回路 |
US7233350B2 (en) * | 2002-01-05 | 2007-06-19 | Candela Microsystems, Inc. | Image sensor with interleaved image output |
US7015960B2 (en) * | 2003-03-18 | 2006-03-21 | Candela Microsystems, Inc. | Image sensor that uses a temperature sensor to compensate for dark current |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4106053A (en) * | 1977-08-01 | 1978-08-08 | Rca Corporation | Digital sampling rate conversion of color TV signal |
JPS54140828A (en) * | 1978-04-24 | 1979-11-01 | Nippon Hoso Kyokai <Nhk> | Luminance-color separation system |
JPS55127477U (de) * | 1979-03-06 | 1980-09-09 | ||
JPS55123280A (en) * | 1979-03-16 | 1980-09-22 | Nippon Hoso Kyokai <Nhk> | Luminance and chromaticity signal separator |
JPS603266B2 (ja) * | 1979-09-12 | 1985-01-26 | 株式会社日立製作所 | 搬送色信号の位相調整方式 |
GB2059712B (en) * | 1979-10-05 | 1983-09-14 | British Broadcasting Corp | Standards conversion of colour television signals |
JPS5734708A (en) * | 1980-08-11 | 1982-02-25 | Furukawa Electric Co Ltd | Method of detecting stress corrosion crack for aerial power distribution insulated wire |
JPS5860888A (ja) * | 1981-10-08 | 1983-04-11 | Toshiba Corp | 色分離回路 |
US4500912A (en) * | 1982-08-04 | 1985-02-19 | Rca Corporation | FIR Chrominance bandpass sampled data filter with internal decimation |
US4498100A (en) * | 1982-11-26 | 1985-02-05 | Rca Corporation | Apparatus for frame-to-frame comb filtering composite TV signal |
SE453246B (sv) * | 1982-11-26 | 1988-01-18 | Rca Corp | Anordning och sett for bild-till-bildkamfiltrering av en sammansatt televisionssignal |
US4527188A (en) * | 1983-02-17 | 1985-07-02 | Rca Corporation | Apparatus for demodulating sampled data chroma signals |
-
1985
- 1985-04-29 US US06/728,013 patent/US4710801A/en not_active Expired - Fee Related
- 1985-12-20 CA CA000498356A patent/CA1247233A/en not_active Expired
-
1986
- 1986-01-29 JP JP61015987A patent/JPS61251289A/ja active Granted
- 1986-03-19 DE DE8686103741T patent/DE3686505T2/de not_active Expired - Fee Related
- 1986-03-19 EP EP86103741A patent/EP0199964B1/de not_active Expired
Also Published As
Publication number | Publication date |
---|---|
EP0199964B1 (de) | 1992-08-26 |
JPS61251289A (ja) | 1986-11-08 |
EP0199964A2 (de) | 1986-11-05 |
JPH0353837B2 (de) | 1991-08-16 |
EP0199964A3 (en) | 1989-01-11 |
CA1247233A (en) | 1988-12-20 |
US4710801A (en) | 1987-12-01 |
DE3686505D1 (de) | 1992-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3431200C2 (de) | ||
DE3650353T2 (de) | Kompatibilität von fernsehübertragungen mit vergrössertem und normalem bildformat. | |
DE3590163C2 (de) | ||
DE69325097T2 (de) | Digitaler video-signalverarbeitungsprozessor mit einem vorprozessor der non-interlace-scan-videosignale aus interlace-scan-videosignalen erzeugt und entsprechendes dekompressions- und nachverarbeitungsvorrichtung | |
DE3854171T2 (de) | Bewertung von Bewegungsvektoren in Fernsehbildern. | |
DE69417833T2 (de) | Farbtrennungsgerät und Verfahren für digitales Fernsehen | |
DE68910848T2 (de) | Einrichtung zur raumzeitlichen Unterabtastung von digitalen Videosignalen, die eine Folge verschachtelter oder sequentieller Bilder darstellen, Übertragungssystem von Fernsehbildern mit hoher Auflösung mit einer solchen Einrichtung und Stufen zum Senden und Empfangen in einem solchen System. | |
DE69608785T2 (de) | Verfahren zur verbesserung der vertikalen auflosung eines fernsehsignals mit verminderten vertikalen chominanzubergangen | |
DE69608410T2 (de) | Verfahren zur erzeugung eines aus einem standardbandbreite-farbfernsehsignal erzeugten farbvideosignals mit erhöhter vertikaler auflösung | |
EP0175860B1 (de) | Verfahren zur kompatiblen Auflösungserhöhung für Farbfernsehübertragungssysteme mit Reduzierung der Übersprechstörungen bei bewegungsadaptiver Bildverarbeitung | |
DE3917562A1 (de) | Video-telefon | |
AT395667B (de) | Farbfernsehwiedergabegeraet | |
DE3435265A1 (de) | Verfahren zur aufloesungserhoehung fuer ein kompatibles fernsehsystem | |
DE3852491T2 (de) | Verfahren und anordnung zur erhöhung der vertikalen auflösung eines übertragenen fernsehsignals. | |
DE3686505T2 (de) | Verfahren und system zur zerlegung von ntsc-farbvideosignalen. | |
WO1997043863A1 (de) | Verfahren zur speicherung oder übertragung von stereoskopischen videosignalen | |
DD292804A5 (de) | Schaltungsanordnung zum verbinden und trennen von komponentenbestandteilen eines videosignals | |
DE3786581T2 (de) | Kodierung und dekodierung von digitalen videokomponentensignalen. | |
DE3341393A1 (de) | Verfahren zum uebertragen eines fernsehsignals hoeherer aufloesung | |
DD290985A5 (de) | Mit herkoemmlichen normen kompatibles fernsehuebertragungssystem | |
DE69119812T2 (de) | Bildwiedergabegerät | |
DE69304556T2 (de) | Trennbare Unterabtastung von digitalen Bilddaten mit allgemeiner periodischer Symmetrie | |
DE69016402T2 (de) | Vorrichtung zur komprimierung von farbdifferenzsignalen. | |
DE68926608T2 (de) | Verfahren zur Umwandlung einer Videosignalwiedergabefrequenz | |
DE3610715A1 (de) | Verfahren und schaltungsanordnung zur flimmerfreien wiedergabe eins videosignals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |