DE69027537T2 - System zur synchronisierung von haupt- und hilfsvideosignalen - Google Patents

System zur synchronisierung von haupt- und hilfsvideosignalen

Info

Publication number
DE69027537T2
DE69027537T2 DE69027537T DE69027537T DE69027537T2 DE 69027537 T2 DE69027537 T2 DE 69027537T2 DE 69027537 T DE69027537 T DE 69027537T DE 69027537 T DE69027537 T DE 69027537T DE 69027537 T2 DE69027537 T2 DE 69027537T2
Authority
DE
Germany
Prior art keywords
data
video
signal
flag
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69027537T
Other languages
English (en)
Other versions
DE69027537D1 (de
Inventor
Sheau-Bao Ng
Hugh White
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Application granted granted Critical
Publication of DE69027537D1 publication Critical patent/DE69027537D1/de
Publication of DE69027537T2 publication Critical patent/DE69027537T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/081Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division the additional information signals being transmitted by means of a subcarrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/24High-definition television systems
    • H04N11/26High-definition television systems involving two-channel transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • H04N7/54Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • H04N7/54Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
    • H04N7/56Synchronising systems therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Description

  • Die Erfindung betrifft eine Vorrichtung zur Aufrechterhaltung einer gewünschten Beziehung zwischen zwei Video- Signalen, die dazu vorgesehen sein können, ein rekonstruiertes Videosignal zu erzeugen.
  • Es sind verschiedene Videosignalverarbeitungssysteme bekannt, welche ein Hilfssignal zur Verstärkung eines Hauptsignals verwenden. Z.B. kann das Hilfssignal eine zusätzliche Hochfrequenzbildinformation enthalten, die aus verschiedenen Gründen nicht in dem Hauptvideosignal enthalten sein kann. Das Hilfssignal kann auch eine Information enthalten, die zur Fehlerkorrektur und zur Artefakt-Kompensation geeignet ist.
  • Ein anschauliches hochauflösendes Fernsehsystem (HDTV), das einen zweiten die Verstärkungsinformation enthaltenden Hilfskanal verwendet, ist im U.S.-Patent US-A- 4, 888, 641 (wo-A-89/08366) von M.A. Isnardi et al. offenbart. Bei dem in diesem Patent offenbarten System handelt es sich um ein Zweikanal HDTV System, in dem ein Hilfskanal eine Information überträgt, welche die Differenz zwischen einer codierten vom Hauptkanal übertragenen Bildinformation ausgedehnter Auflösung und eine Bildinformation von einer Originalquelle höherer Auflösung repräsentiert.
  • In ICASSP 88, International Conference on Acustics, Speech and Signal Processing, 11-14 April 1988, vol. II, IEEE, G. Aartsen et al.: "Error resilience of a video codec for low bitrates", Seiten 1312-1315, ist ein Codierer zur Codierung von Videomformation in einem einzelnen Datenstrom zur Übermittlung über das integrierte Dienstleistungsdigitalnetz (ISDN) offenbart. Der Übertragungskanal setzt das codierte Video Fehlern aus. Es wird die variable Längencodierung (VLC) verwendet. Wenn ein Fehler in einem VLC-Code auftritt, kann ein Wort in zweite Worte aufgespalten oder zwei Worte können zu einem Wort vereinigt werden. Das führt zu einem Synchronisationsverlust; dieser wird durch die Aufnahme einheitlicher Synchronisationsworte in den bit-Strom (bitstream) behoben.
  • Das SMPTE-Journal, vol. 97, Nr. 9, Sept. 1988, E.M. Underwood: "Broadcast-quality television 45 Mbit-sec. (D53) encoding algorithm", Seiten 678-686, offenbart einen Codierer zur Codierung von Videomformation in einem einzelnen Bit-Strom. Der Codierer verwendet einen Differentialpulscodemodulator (DPCM), der eine Anzahl von Voraussagetechniken gefolgt von einer variablen Wortlängencodierung (VWLC) verwendet. Die codierte Videomformation enthält Bits, z.B. für ein Synchronisationssignal (sync signal) zur Identifizierung des Beginns eines Zeilenpaars; ein Zeilen-Moduselement zur Identifizierung der Modulationsart; ein Blockmoduselement, um die Art der in dem DPCM Codierer verwendeten Voraussage zu identifizieren. Das IEEE Journal on Selected Areas in Communications, vol. 7, Nr. 5, M. Ghanbari: "Two-layer Coding of Video Signals for VBR Networks", Seiten 771-781, offenbart ein Videoverarbeitungssystem, das enthält: Mittel zur Bereitstellung eines ersten Videosignals, das eine Feldraten-Videomformation enthält, die eine erste Auflösung eines gegebenen Bildes repräsentiert; Mittel zur Bereitstellung eines zweiten Videosignals, das eine weitere Auflösung des gegebenen Bildes repräsentiert, die sich von der durch das erste Videosignal repräsentierten Auflösung unterscheidet; Mittel zur Datenkompression des zweiten Videosignals, das ein digitales Signal ist, und zur Förderung des synchronen Kombinierens der ersten und zweiten Signale verschiedener Auflösung.
  • Es ist wünschenswert, Hochfrequenzinformation digital zu verarbeiten, um sie aus verschiedenen Gründen durch ein Hilfssignal zu übertragen, um eine bessere Signal- Rauschcharakteristik herzustellen. Die Verwendung einer solchen digitalen Verarbeitung kann Datenkompressionstechniken umfassen, die ein digitales Hilfssignal mit einer variablen Datenrate zum Ergebnis haben. In diesem Fall müssen besondere Maßnahmen ergriffen werden, um sicherzustellen, daß die Haupt- und Hilfssignale, die unterschiedliche Datenraten aufweisen können, genau synchronisiert werden, wenn sie schließlich zur Rekonstruktion eines Bildsignals zur Darstellung kombiniert werden. Die vorliegende Erfindung betrifft u.a. diese Überlegungen.
  • Gestaltungen der Erfindung sind in den Ansprüchen wiedergegeben.
  • Kurzbeschreibung der Zeichnungen
  • Eigur 1 zeigt die Komponenten eines erfindungsgemäßen Hilfssignals.
  • Die Figuren 2, 3 und 4 zeigen Signalwellenformen, die zum Verständnis der Arbeitsweise der erfindungsgemäßen Vorrichtung hilfreich sind.
  • Figur 5 ist ein Blockdiagramm eines hochauflösenden Fernsehsystems, das zur Verwendung der erfindungsgemäßen Signalverarbeitungstechnik geeignet ist.
  • Die Figuren 6 und 7 zeigen Einzelheiten einer Vorrichtung zum Codieren und Decodieren des in Figur 1 gezeigten Hilfssignals.
  • Figur 1 zeigt die Komponenten eines digitalcodierten Hilfssignals (A) in zunehmenden Details von der Komponente (B) bis zur Komponente (E). Die Komponente (A) ist das Grundshilfssignal, das zusammengesetzte Daten, z.B. Audio, Video, Synchronisations- und Steuerinformation, enthält. Diese Komponente enthält eine Abfolge zeitmultiplexter Makrodatenblöcke. Ein Makrodatenblock ist ein Datenblock zwischen zwei aufeinanderfolgenden Synchronisations-Flags (SF). Die Synchronisations-Flags treten periodisch mit einer Feldrate von 59,94 Hz. auf, im wesentlichen in Koinzidenz mit den vertikalen Synchronisationssignalen des Hauptsignals. Die Synchronisations-Elags repräsentieren eine erste Stufe des Synchronisationssystems, in dem eine genaue Beziehung zwischen den Hauptund Hilfssignalen auf einer Feld-zu-Feld-Basis aufrechterhalten wird.
  • Wie bei Komponente (B) gezeigt ist, wird jedes Synchronisations-Flag durch ein einheitliches 11-Bit Binärkennungssignal, "01111111110", repräsentiert. Jeder Makroblock umfaßt einen Audiodatenblock und einen Videodatenblock, wobei beide komprimierte Digitaldaten enthalten. Jeder Videoblock enthält die Daten komprimierter Videoinformation für ein Feld des Vergrößerungssignals. Während die Anzahl der Bits in einem Makroblock festgelegt ist, variiert die Anzahl der Bits in einem datenkomprimierten Videoblock von Feld zu Feld.
  • Jeder Videoblock enthält eine Abfolge multiplexter Zeilenblöcke (LB), von denen jeder datenkomprimierte Videoinformationen, wie bei Komponente (C) gezeigt ist, enthält. Jeder Zeilenblock repräsentiert einen horizontalen "Streifen" und enthält eine Gruppe von zwölf sequentiellen Abtastzeilen der Leuchtdichteinformation und eine Gruppe von vier sequentiellen horizontalen Abtastzeilen der Chrominanzinformation für jedes der beiden Farbdifferenzsignale (z.B. R-Y und B-Y), die, wie bei Komponente (D) gezeigt ist, mit C 1 und C 2 bezeichnet sind. Die Leuchtdichte und Chrominanzinformation für jeden Zeilenblock existiert in zeitmultiplexter Form. Die meiste Videosignalverarbeitung ist auf einen Zeilenblock beschränkt, und die Zeitkompressionsparameter des Videosignals werden in jedem Zeilenblock einmal eingestellt. Jeder Videoblock enthält auch einen Fehlerschutzblock EP, der Information für die Fehlererkennung und Korrektur oder Kompensation enthält.
  • Die Zeilenblöcke unterscheiden sich bezeichnenderweise in der Dauer. Jedem Zeilenblock geht ein 15-Bit-Flag voraus, das, wie in Komponente (E) gezeigt ist, einen Zeilen block-Flag repräsentiert, oder, wie bei Komponente (D) gezeigt ist, ein Feld-Flag, wenn ein bestimmter Zeilenblock der erste Block in einem gegebenen Bildfeld ist. Die Feld-Flags und Zeilenblock-Flags repräsentieren eine zweite Stufe der Systemsynchronisation. Jeder Zeilenblock-Flag beginnt mit einem 8-Bit-Kopf "01111110", die in den übertragenen Bit-Mustern einheitlich ist. Im Falle eines Übertragungsirrtums bei den komprimierten Videoblockdaten erlauben es die Zeilenblock-Flags vorteilhafterweise, den Irrtum innerhalb eines Zeilenblocks zu begrenzen. Eine Fehlerfortpflanzung ist daher beschränkt.
  • Jeder Zeilenblock-Flag enthält eine einheitliche Zeilenblockmarkierung, die einen 8-Bit-Kopf und, wie in Komponente (E) gezeigt ist, eine 3-Bit-Zeilenblocknummer sowie einen 4-Bit-Leistungsanzeiger P1 umfaßt. Der Leistungsanzeiger P1 wird dazu verwendet, die noch zu diskutierenden Quantisierungsparameter zu steuern. Die Zeilenblocknummer ist eine Modulo-8-Zählung des horizontalen Zeilenblocks (d.h. des "Streifens") innerhalb eines 480 Zeilenfelds und erlaubt es, einem Empfänger die Zeilenblocks innerhalb eines Felds zur Rekonstruktion des Bildes genau zu positionieren. Wegen der variablen Größe der (Huffman-) codierten Information für jeden Zeilenblock erscheinen die 15-Bit-Zeilenblock-Flags mit unregelmäßigen Abständen. Um die Einheitlichkeit der Flag-Codes innerhalb des Videoblocks sicherzustellen, ist ein binäres 0-Bit in die komprimierten Videoblockdaten nach jedem Fünfbinäre-1- Bit-Muster (d.h. "11111") in die Videodaten eingefügt ("gefüllt"). Dieses Bit-Füllen wird am Sender vollzogen, während am Empfänger nach der Identifikation der Kopfdaten das auf jede fünf aufeinanderfolgenden binären 1-Bits folgende binäre 0-Bit enfemt oder abgezogen wird. Dieser Prozeß des Bit-Füllens und Bit-Abziehens gewährleistet, daß die komprimierten Videodaten nicht mehr als fünf aufeinanderfolgende binäre 1-Bits haben, wodurch Fehler in bezug zu den Flag-Daten vermieden werden.
  • Der Feld-Flag ist ähnlich dem Zeichenblock-Flag mit der Ausnahme, daß ein einheitlicher 9-Bit Kopf (011111110) von einer 2-Bit-Feldnummer gefolgt wird. Wie vorher ausgeführt, ist ein Feld-Flag dem ersten Zeilenblock in einem eine Mehrzahl von Zeilenblocks enthaltenden Feld vorangestellt. Jedes Feld-Flag wird als FN-Flag benannt, wobei N eine ganze Zahl zwischen 0 und 3 ist. Es werden vier Feld-Flag Benennungen verwendet, d.h. F 0 - F 3, weil in diesem System das Hauptsignal zur Gewährleistung von Synchronismus bei der schlußendlichen Kombination relativ zum Hilfssignal verzögert ist, wegen der Zeit, die für die Übertragung und das Decodieren der variablen Längencodes des datenkomprimierten Hilfssignals notwendig ist. Typischerweise stellt eine Verzögerung von vier Feldperioden bis zu drei Feldperioden für das Senden der Hilfsinformation und eine Feldperiode für das Decodieren der gesendeten Daten zur Verfügung, die durch ein einzelnes Feld des Hilfssignals erzeugt werden können. Um die Belastung der Empfängerkosten zu minimieren, wird die Verzögerung des Hauptsignals am Sender vorgesehen. Während der Verzögerungsbetrag am Sender und ein bestimmter Betrag der Empfängerverzögerung zur Decodierung variabler Längencodes variieren, beträgt die Gesamtverzögerung des variabel längencodierten Signals vier Feldperioden.
  • Die FN-Feld-Flags bringen ein Segment der Hilfssignaldaten und ein Feld des Hauptsignals in Beziehung. Für einen bestimmten Wert N zwischen 1 und einschließlich 3 teilt der FN-Flag dem Empfänger mit, daß die dem Flag folgenden Hilfsdaten mit dem Nten Hauptsignalfeldversatz des laufenden Hauptsignalfelds zu kombinieren sind. Wenn z.B. das Senden der Hilfssignaldaten für das Feld 23 während des Felds 20 des Hauptsignals beginnt, dann geht diesem Datensegment der Feld-Flag F 3 voraus. Der Feld-Flag F 0 dient einem anderen später zu diskutierenden Zweck.
  • Die Feld-Flags FN enthalten einen 9-Bit-Kopf und ein 2- Bit-Code für die Feldverzögerungsnummer N, wie in der Komponente D der Figur 1 gezeigt ist. Wegen des Bit-Füllund Abziehvorgangs, der bei den Videodaten zur Gewährleistung der Einheitlichkeit des 8-Bit-Kopfmusters für den Zeilenblock-Flag durchgeführt wird, ist der 9-Bit-Kopf für das Feld-Flag auch innerhalb der Videodaten einheitlich. Um die Einheitlichkeit des 11-Bit-Musters für den Synchronisations-Flag SF (Komponenten A und B) zu gewährleisten, wird das Bit-Füllen am Codierer und das Bit- Abziehen am Empfänger auch auf das zusammengesetzte Datensignal angewendet, das die Video- und Audiomformation enthält. In diesem Fall wird eine binäre 0 nach jeder 8 eingefügt, die einer binären 1 in den zusammengesetzten Daten folgt. Das eingefügte Bit wird am Empfänger von den zusammengesetzten Daten abgezogen, nachdem die Synchronisations-Flags SF identifiziert worden sind. Dieser Vorgang wird zusätzlich zum Bit-Füll- und Abziehvorgang durchgeführt, der an der komprimierten Datenstufe bezüglich der oben diskutierten Komponenten D und E durchgeführt wird.
  • Die Arbeitsweise der Feld-Flags ist in Zusammenhang mit den Figuren 2, 3 und 4 gezeigt. Figur 2 zeigt das Signal einer hochaufgelösten Quelle, und Figur 3 zeigt das Hauptsignal am Ausgang eines Senders, wobei beide mit Feldnummern benannt sind. Figur 4 zeigt die Füllstufenarbeitsweise eines Ausgangsdatenpuffers eines Senders, der das Hilfssignal verarbeitet. Der Datenpuffer und die diesbezügliche Vorrichtung werden nachfolgend gezeigt und diskutiert. Das Hauptsignal in Figur 3 ist um vier Feldperioden verzögert dargestellt relativ zum Originalquellsignal, das in Figur 1 gezeigt ist, während die Hilfssignaldaten (Figur 4) um eine Feldperiode relativ zum Originalquellsignal verzögert sind. Der Grund für die Verzögerung um vier Felder ist oben beschrieben worden. Eine Verzögerung um ein Feld für die Hilfssignaldaten ist notwendig, wenn die codierte Hauptsignalinformation während des Codierbetriebs eines Senders für Originalquellsignalinformation abgezogen wird. Wenn z.B. die Feld 1- Komponente des Hilfssignals eine Differenz zwischen Feld 1 des Hauptsignals und Feld 1 des Originalquellsignals repräsentiert, ist, wie noch gezeigt wird, die Feld 1-Komponente des Hilfssignals nur nach den Feld 1- Komponenten des Hauptsignals verfügbar, und das Originalquellsignal ist in seiner Gesamtheit verfügbar.
  • Figur 4 zeigt den Füllstand des Senderausgangspuffers in Makroblockeinheiten, wobei ein Makroblock einen Datenbetrag enthält, der in einer Feldperiode gesendet werden kann. Daher wird ein Puffer, der zwei Makroblocks an Daten enthält, nach zwei Feldperioden leer sein, wenn dem Puffer keine neuen Daten zugeführt werden. Die unregelmäßig geformte durchgezogene Linie im unteren Teil der Figur 4 repräsentiert den augenblicklichen Pufferfüll(Belegungs-)Stand. Die sägezahnförmige Linie im oberen Teil der Figur 4 repräsentiert den maximalen Datenbetrag, der zu verschiedenen Zeitpunkten im Puffer aufgenommen werden kann, für die Daten, die beim Empfänger rechtzeitig zum Decodieren eintreffen. Das Codieren wird beendet, wenn das Fassungsvermögen des Datenspeichers seinen Maximalwert erreicht.
  • Es ist ein Beispiel für die Verarbeitung des Felds 1 des Hilfssignals gezeigt. Die beiden unterbrochenen Linien im Diagramm zeigen die Zeitpunkte, zu denen die ersten und die letzten Datenbits des Felds 1 den Puffer verlassen. Die zweite unterbrochene Linie erreicht Null, unmittelbar bevor das Feld 1 des Hauptsignals (Figur 3) das Senden beginnt. Das bedeutet, daß der Empfänger alle codierten Bits für das Hilfssignalfeld 1 schon empfangen hat, wenn das Hauptsignalfeld 1 mit dem Senden beginnt. Während der Zeit, zu der das Hauptsignalfeld 1 gesendet wird, was eine Feldperiode in Anspruch nimmt, kann der Empfänger das Hilfssignal decodieren. Verschiedene Wechsel im Codieralgorithmus tragen dazu bei, ein Überlaufen des Puffers - und damit den Abbruch des Codierens - zu vermeiden. Das wird erreicht, indem die Kompressionsparameter für jeden Zeilenblock durch den Wert des Leistungsindex P1 vorgegeben werden. Dieser Index ist eine Funktion der Differenz zwischen dem Füllstand des Puffers und dem maximalen Füllstand
  • Bei Beginn des Codierens wird für jedes Feld ein Feld- Flag-Kennzeichen FN in den Puffer eingefügt. Der Wert von N, der Hauptsignalabzugszahl, wird durch Subtraktion der ganzen Zahl an Datenblöcken im Puffer von der Zahl 3 (wie oben beschrieben beträgt die maximale Pufferkapazität 3 Datenblocks) erhalten. Beispielsweise geht den Daten für Feld 1 F 3 voran, weil beim Beginn des Codierens von Feld 1 weniger als ein Datenblock im Puffer sich befindet. Wie aus Figur 4 ersichtlich ist, beginnt das Senden der Daten für Feld 1 während des Sendens der Hauptsignalfeldzahl - 2, und F 3 teilt dem Empfänger mit, daß die Daten mit Feld 1 kombiniert werden müssen, d.h. beginnend bei Feld - 2 abzüglich drei Felder die Feldzahl 1 zu erhalten.
  • Mit Absicht tritt der Feld-Flag F 0 niemals auf. Dieser Flag ist als Füllkennzeichen reserviert, wenn der Puffer leer ist, d.h. wenn der Puffer im Unterstromzustand ist. Wenn keine Videodaten für das Senden bereit sind, müssen zum Auffüllen des Kanals Füllkennzeichen gesendet werden. Die Kennzeichen können nicht in den Puffer abgelegt werden, weil es nicht bekannt ist, wie viele Daten durch künftige Eingaben in den Codierer erzeugt werden. Ein Multiplexer ist am Ausgang des Puffers erforderlich, so daß ein Puffer-Unterstromzustand das Senden von Füllkennzeichen F 0 hervorruft.
  • Figur 5 zeigt ein hochauflösendes Zweikanalfernsehsystem, das erfindungsgemäße Signalverarbeitungstechniken verwendet. Das System der Figur 5 ist in Einzelheiten mit Ausnahme der Einheiten 516, 518 und 519 und der besonderen Einbindung des Hilfssignalcodierers 542 und des Decodierers 534 im U.S.-Patent 4,888,641, von M.A. Isnardi et al. beschrieben. Kurz gesagt werden Breitbandbreitschirm hochaufgelöste Femseh (HDTV) Signale Y, I und Q von einer Quelle 510 (z.B. einer Videokamera) auf einen Sender 512 aufgegeben. Das Leuchtdichtesignal Y belegt ein Frequenzband zwischen Null Hz und 20 MHz Die Chrominanzsignale I und Q enthalten eine Information, die ein Frequenzband zwischen Null Hz und 10 MHz belegt. Die Signale Y, I und Q werden über einen Einkanalcodierer 514, wie er im U.S.-Patent 4,855,811 von Isnardi et al. beschrieben ist, codiert, um ein NTSC kompatibles Fernsehsignal zu bilden. Das codierte Signal wird durch einen N + 1 Bildverzögerer 516 verzögert, bevor es von digitaler in analoge Form umgewandelt und als Hauptfernsehsignal erweiterter Auflösung durch die Einheit 517 und die Antenne 515 gesendet wird. Die durch die Antenne 515 gesendeten Signale werden von einer Antenne 520 eines Standard NTSC Empfängers 522 und von einer Antenne 524 eines einen Detektor 525 und einer Breitbildschirmanzeige 528 umfassenden Femseh (EDTV) Empfängers erweiterter Auflösung empfangen. Der Decodierer 525 ist von der Art, wie er im U.S.-Patent 4,855,811 zum Decodieren empfangener Signale in die Bestandteile der EDTV Leuchtdichte- und Chrominanzkomponenten Y', I' und Q' beschrieben ist. Die Bildinformation dieser Komponenten wird durch die Einheit 528 angezeigt.
  • Der Hilfssignalcodierer 542 codiert die Signale Δ Y, Δ I, Δ Q, welche die Differenz zwischen den durch die Einheit 528 darzustellenden Breitschirm EDTV Signalen und den Originalbreitschirm HDTV Signalen von der Quelle 528 repräsentieren. Diese Differenz wird durch eine Subtraktion der Ausgangssignale Y', I' und Q' eines Decodierers 540 von dem betreffenden Original HDTV Signalen Y, I und Q von der Quelle 510 erhalten. Der Decodierer 540 kann mit dem Decodierer 525 identisch sein. Ein Hilfsdigitalsignal vom Codierer 542 wird, wie in Figur 1 gezeigt ist, durch einen N-Bildgrößenpuffer (N-Frame-Size-Buffer) 518 verarbeitet, bevor es mittels einer Sendeeinheit 519 und einer damit verbundenen Antenne 530 gesendet wird. Die Einheit 516 stellt eine Verzögerung zur Verfügung, die ein Bild (frame) größer ist als die Bildgröße des Puffers 518.
  • Das durch die Antenne 530 übertragene Hilfs- und das durch die Antenne 515 übertragene Hauptsignal wird jeweils von einer Antenne 532 empfangen, die mit einem Breitschirm HDTV Empfänger verbunden ist. Dieser Empfänger enthält einen Decodierer 534 zur Decodierung der Haupt- und Hilfssignale und zur additiven Kombination der decodierten Leuchtdichte und Chrominanzsignalbestandteile, um entsprechende Breitschirm HDTV Komponentensignale Y", 1" und Q" zur Anzeige durch ein Breitschirm HDTV Anzeigegerät 536 zu erzeugen. In diesem Beispiel wird davon ausgegangen, daß die HDTV-Quelle ein Bildkantenverhältnis von 5 x 3 hat, entweder 525-Zeilen in unmittelbar aufeinanderfolgender Abtastung oder 1050-Zeilen in 2 : 1 Zwischenzeilenabtastung. Höher frequente Komponenten sowie Komponenten, die auf Grund des EDTV Codierverfahrens eine Artefaktkorrektur erfordern, werden digital codiert und in dem digitalen Hilfssignal übertragen.
  • Die Anordnung des Hilfssignalcodierers 542 sowie des Puffers 518 der Figur 5 ist im einzelnen in Figur 6 dargestellt. Die eingegebenen Videodaten werden in bekannter Weise via der Einheit 612 einem variablen Längencodierungsverfahren mit Quantisierung und via der Einheit 616 der Huffman-Entropiecodierung unterworfen. Besonders das eingegebene Videosignal wird unter Verwendung einer Quantisierungsschwelle und Stufengrößenparametern einmal in jedem Zeilenblock als Funktion des Wertes des von einem Ausgangsdatenpuffer 625 als Rückkopplungssignal gewonnenen Leistungsindex P1 ausgewählt. Wie oben aufgeführt, zeigt das P1-Signal den "Füll"-Status des Ausgangspuffers 625 an, der das Quantisierungsverfahren entsprechend verändert.
  • Die Größenordnung jeder Probe wird mit der Quanitisierungsschwelle für einen verbunden Zeilenblock verglichen. Wenn die Probengröße die Quantisierungsschwelle übersteigt, wird der Probenwert durch die Differenz ersetzt, um die seine Größenordnung die Schwelle übersteigt. Das Kennzeichen der Probe bleibt unverändert. Die neuen Probenwerte werden dann einheitlich quantisiert entsprechend der Quantisierungsschrittgröße für einen gegebenen Zeilenblock. Das wird durch eine Skalierung der Probenwerte durch die Schrittgröße und ein Abrunden der skalierten Probenwerte auf ihre ganzzeiligen Aquivalente erreicht. Die Quantisierungsschrittgröße und die Schwelle werden einmal in jedem Zeilenblock mittels der Quanitisierungsparameterauswahleinheit 614 eingestellt, die den Betrieb des Quantisierers 612 in Antwort auf das Pufferleistungsindexrückkopplungssignal P1 für einen bestimmten Zeilenblock steuert. Das Leistungsindexsignal P1 für einen bestimmten Zeilenblock wird zusammen mit einer anderen Zeilenblockidentifikationsinformation (Komponente E, Figur 1) gesendet, um die Genauigkeit des Empfängerdecodierverfahrens zu gewährleisten. Die Verwendung eines Skalierungsfaktors oder einer Stufengröße zur Veränderung der Quantisierungsparameter via der Einheit 614 erlaubt vorteilhafterweise die Verwendung einer einzelnen Huffman-Codenachschlagstabelle für verschiedene Quanitisierer. Die Luminanzkomponente und zwei Hilfsleuchtdichtedifferenzsignalkomponenten werden zusammen durch einen Multiplexer (MUX) 615 zeitmultiplext, bevor sie der Huffman-Codierung durch die Einheit 616 unterworfen werden. Die Einheit 616 führt eine variable Längencodierung für Nicht-Null-Probenwerte und eine Lauf-Längencodierung für Null-Probenwerte durch. Die aktuellen codierten Videodatenbits folgen dem 15-Bit-Vorspann (Figur 1, Komponenten D, E). Diese Videodatenbits umfassen die Luminanz- und die beiden Leuchtdichtedaten für einen bestimmten Zeilenblock.
  • Im Huffman-Codierer 616 werden häufig auftretende Werte unter Verwendung kurzer Codes codiert, während mit einer geringen Wahrscheinlichkeit auftretende Werte unter Verwendung längerer Codes codiert werden. Alle vorgegebenen Codes sind in einer Nachschlagtabelle (PROM) gespeichert. Eingegebene Werte werden beprobt, um festzustellen, ob sie Null- oder Nicht-Null-Werte enthalten. Ein korrespondierender Code wird für jeden Nicht-Null-Wert gesendet. Ein Zähler ist zurückgesetzt, wenn ein Null-Wert erstmals auftritt, und der Zähler wird für jeden folgenden Null- Wert um Eins vergrößert. Das ist der "Lauf" der Null- Werte. Ein Lauf wird durch einen Nicht-Null-Wert oder durch das Erreichen des Endes einer Bildzeile beendet. Alternativ kann ein maximaler Lauf auf die Gesamtzahl oder auf die Bildpunkte in einem Zeilenblock festgelegt werden. Wenn ein Null-Lauf beendet ist, wird ein zu dem Wert dieses Laufs korrespondierender Wert gesendet, der -falls zugegen - von dem den Lauf beendenden Code für den Nicht-Null-Wert gefolgt wird.
  • Das Huffman codierte Signal der Einheit 616 wird einem Bit-Füllen und Flag-Einsetzvorgang mittels einer Einheit 618 unterworfen, bevor das codierte Signal zum Datenpuffer 625 übertragen wird. Die Einheit 618 empfängt das einheitliche 15-Bit-Feld-Flag oder das Zeilenblock-Flag (Figur 1, Komponenten D, E), die als Feld- oder Zeilenblock identifizierende und trennende Daten wirken, von einem Flag-Generator 620. Der Flag-Generator 620 antwortet auf ein FIELD IDENT Signal, das aus dem Hauptsignal gewonnen wird und die Feldzahl des Hauptsignals repräsentiert, und er erzeugt, wie in Figur 1 gezeigt ist, die einheitlichen 9- oder 8-Bit-Feld- oder Zeilenkopfdaten und die einheitlichen 2- oder 3-Bit-Feld oder Zeilenblocknummerndaten. Der Generator 620 antwortet auch auf das 4-Bit-P1-Signal des Puffers 625 und auf ein TIMING (Takt) Signal, das durch logische mit MUX 615 verbundene Schaltkreise zur Schaffung einer genauen Taktbeziehung für die Feld-Flag-Daten und die Zeilenblock-Flag-Daten hervorgebracht wird.
  • Das auf die Einheit 618 durch den Flag-Generator 620 angewandte Verfahren des Hervorbringens des Feld- oder Zeilenblock-Flag-Signals umfaßt die folgenden Schritte. Am Anfang der Verarbeitung erwartet die Einheit 620 ein Haupt FIELD IDENT Signal. Das FIELD IDENT Signal zeigt den Anfang eines Hauptsignalfelds und auch die Zahl dieses Felds an. Wenn dieses Signal erfaßt wird, wird eine 2-Bit-Feldzahl für das Feld-Flag berechnet, welche die Beziehung zwischen dem Haupt- und den komprimierten Hilfssignalfeldern repräsentiert. Wenn kein FIELD IDENT Signal erfaßt wird, wird die 3-Bit-Zeilenblockzahl berechnet. Der P1-Wert wird vom Datenpuffer erhalten und zur Bildung des Feld-Flags mit dem 9-Bit-Feldkopf und der 1-Bit-Feldzahl oder zur Bildung des Zeilenblock-Flags mit dem 8-Bit-Zeilenblockkopf und der 3-Bit-Zeilennummer kombiniert. Diese Daten werden in Antwort auf das TIMING Signal zusammen multiplext. Das 15-Bit-Feld oder die Zeilenblock-Flags des Generators 620 werden durch die Einheit 618 in den Datenstrom multiplext.
  • Wegen der durch den Quantisierer 612 und den Huffman- Codierer 616 erzeugten variablen Längencodes ist die komprimierte Datenrate über die Zeit variabel. Der digitale Hilfssignalkanal ist jedoch ein Kanal mit fester Rate. Ein asynchroner Puffer 625 wird daher einem Ausgangsmodem 630 im Datenweg vorgeschaltet. Die Puffergröße steht in Beziehung zur maximalen Verzögerung, die zwischen dem Zeitpunkt bestehen kann, an dem ein Bit den Huffman- Codierer 616 verläßt und dem Zeitpunkt, an dem dasselbe Bit in einem korrespondierenden Huffman-Decodierer am Empfänger eintritt. Für die Puffergröße von 0,9 Mbit und eine Videokanalrate von 17,5 Mbps beträgt die maximale Verzögerung 51 msec oder ungefähr drei Feldzwischenräume. Wie oben erwähnt, wird das System in eine Verzögerung von vier Feldzwischenräumen oder ungefähr 66,73 msec gezwungen, so daß bis zu einem Feldzwischenraum für Decodierzwecke zur Verfügung steht. Wie ebenfalls oben erwähnt, wird via des Rückkopplungssignals P1 der Status der Pufferbelegung (Füllstand) zur Kontrolle des Quantisierungsbetrages beim Videocodierverfahren verwendet. Das dient als Flußkontrollmechanismus für den dem Puffer 625 eingegebenen Datenstrom. Der Pufferbelegungsstatus wird einmal in jedem Zeilenblock geprüft. Die Einheit 614 verwendet eine Nachschlagtabelle, um zur Codierung des nächsten Zeilenblocks die Schwellen- und Skalierungsfaktorquantisierungsparameter dem Quantisierer 612 als eine Funktion des Signalwerts P1 zur Verfügung zu stellen. Ein Vier- Bit-Leistungsindexsignal P1 erlaubt die Verwendung von bis zu 16 Sätzen an Quantisierungsparametern.
  • Die Inhalte des Puffers 625 werden einem synchronen Datenmultiplexer 626 mit einer konstanten Datenrate zugeführt, die gleich der Gesamtvideodatenrate (die Videoblockgröße x der Feldrate) ist. MUX 626 leitet die Videodaten, Audiodaten oder gemischte Daten, wie die Steuerinformation von Puffer 625, zu einem Ausgangsmodem 630 in zeitmultiplexter Form. Eine zwischen MUX 626 und dem Modem 630 angeordnete Bit-Füll- und Synchronisations-Flag- Einfügungseinheit 628 setzt das Synchronisations-Flag SF ein und führt zusätzlich das oben erwähnte Bit-Füllen durch, das sich von dem durch die Einheit 618 durchgeführten unterscheidet, um Fehler an der Grenze zwischen multiplexten Videodaten und Audio- oder gemischten Daten wie Steuerdaten zu vermeiden. Ein vertikales Synchronisationssignal für das Hauptsignal wird zur Schaffung eines ENABLE Signals auf MUX 626 aufgegeben, um das Einfügen des Synchronisations-Flags SF in einen Makrodatenblock (Figur 1, Komponente A) zu erleichtern.
  • Das Modem 630 umfaßt Netze zur Modulation der Digitaldaten von der Einheit 628 auf einen RF-Träger, der eine maximale Bandbreite von 6 MHz belegt. Besonders das Modem 630 verwendet Vier-Bits, um ein Datensymbol zu erzeugen, das dann durch erhöhte Cosinus FIR-Filter spektralgeformt wird. Zwei Basisbanddigitalsignale modulieren um eine Quadratur phasenverschobene RF-Trägersignale. Die Symbolrate des Modems 630 ist kleiner als die 6 MHz RF Kanalbandbreite, die eine Symbolrate von ungefähr 5 Mio Symbolen pro Sekunde (5 Mbaud) tragen kann. Unter Verwendung einer 16-stufigen Quadraturamplitudenmodulation zeigt jedes Symbol 4-Bits an Information, so daß eine Gesamtdigitaldatenrate von 20 Mbps in einer Bandbreite von weniger als 6 MHz verwirklicht werden kann.
  • Figur 7 zeigt eine Vorrichtung zum Decodieren des Digitalhilfssignals an einem Empfänger. Der Hilfssignaldecodierer befindet sich im Decodierer 537 der Figur 1 zusammen mit einem Hauptsignaldecodierer, ähnlich wie die im vorerwähnten U.S.-Patent 4,888,641 diskutierten Einheiten 540 und 525. Die Arbeitsweise der Decodiervorrichtung der Figur 7 ist ähnlich der der Codiervorrichtung der Figur 6 mit der Ausnahme, daß die Arbeitsweise in umgekehrter Richtung stattfindet. Das durch die Vorrichtung der Figur 7 zur Verfügung gestellte decodierte Hilfssignal wird mit einem decodierten Hauptsignal kombiniert, um ein HDTV-Signal zur Anzeige zu erzeugen.
  • In Figur 7 wird das durch eine Antenne 532 empfangene Hilfssignal durch eine RF-Demodulationsvorrichtung (nicht gezeigt) verarbeitet, bevor es durch ein Empfängermodem 730 verarbeitet wird, der ein binäres Ausgangssignal erzeugt. Dieses Ausgangssignal wird einem Synchronisations (SF) Erkennungs- und einem Bit-Füllvorgang unterworfen, der durch die Einheit 728 an den komprimierten Daten durchgeführt wird. Diese Einheit entfernt die zusätzlich "gefüllten" Bits, die am Codierer durch die Einheit 628 hinzugefügt worden sind. Mit Hilfe der erkannten Synchronisations-Flags SF, die in regelmäßigen Abständen im wesentlichen in Koinzidenz mit den vertikalen Signalpulsen des Hauptsignals erscheinen, schafft die Einheit 728 ein CLOCK Signal, welches dazu verwendet wird, die Arbeitsweise eines synchronen Demultiplexers (De-Mux) 726 beim Trennen der Video-, Audio- und Steuerdaten im Signal der Einheit 728 zu takten. Die getrennten Videodaten von Einheit 726 werden in einem Puffer 725 gespreichert.
  • Ein Ausgangssignal von Puffer 725 wird einem Bit-Füllen und Feld/Zeilenblock-Flag-Erkennungsvorgang durch eine Einheit 718 unterworfen. Die Einheit 718 erkennt die Flag-Information und entfernt die zusätzlich "gefüllten" Bits, die durch die Einheit 618 am Codierer (Figur 6) eingefügt worden sind. Die Einheit 718 gewinnt auch das P1-Signal zurück und stellt ein Ausgangs FIELD IDENT Signal zur Verfügung, das dazu verwendet wird, zu erkennen, mit welchen Hauptsignalfeldern die Ausgangsvideodaten verwendet werden sollen. Wenn kein Videoirrtum erkannt worden ist, werden die Videodaten von der Einheit 718 einem Huffman-Detektor 716 zugeführt. Wenn ein Videodatenirrtum erkannt wird, so kann der den Irrtum enthaltende Zeilenblock zur Fehlerbehandlung vereinzelt werden, z.B. kann der Zeilenblock entfernt oder durch einen vorhergehenden Zeilenblock ersetzt werden.
  • Der von der Einheit 718 empfangene Datenstrom wird durch einen Huffman-Decodierer 716 decodiert, der auf ein von der Einheit 718 zurückgewonnenes TIMING Signal antwortet und ein Duplikat der vom Huffman-Codierer am Sender verwendeten Codetabelle enthält. In diesem Beispiel wird davon ausgegangen, daß eine Synchronisation geschaffen worden ist. Wenn ein Code empfangen worden ist, wird sein korrespondierender decodierter Wert erkannt. Das Leistungsindex-Signal P1 ist gewonnen und in einem folgenden De-Quantisierungsverfahren zur Rekonstruktion jedes Zeilenblocks verwendet worden. Mit Hilfe der Feld-Flags FN werden die verschiedenen Videoblocks identifiziert. Der Ausgangsdatenstrom vom Huffman-Decodierer 716 wird in Luminanz- und Leuchtdichtebänder durch De-Mux 715 aufgespalten.
  • Ein inverser Quantisierer 712 de-quantisiert die Daten von De-Mux 715 mit der Umkehrung der vom Quantisierer 612 am Codierer verwendeten Quantisierungsparameter. Der inverse Quantisierer 712 stellt die Nicht-Null-Werte jedes Zeilenblocks entsprechend der im Quantisierungsverfahren am Codierer verwendeten Kompressionsparameter ein. In dieser Hinsicht antwortet der inverse Quantisierer 712 auf Parameter, die von einer Parameterauswahleinheit 714 in Übereinstimmung mit dem auf die Einheit 714 angewandten Wert des zurückgewonnenen Leistungsindikators P1erzeugt werden. Die Einheit 714 umfaßt ein die Umkehrung der am Codierer verwendeten Kompressionsparameter enthaltendes PROM, dessen Parameter in die Einheit 712 für einen besonderen Zeilenblock in Übereinstimmung mit dem P1- Wert für diesen Zeilenblock ausgelesen werden. Nicht- Null-Werte werden erst durch die Umkehrung des im Codiererquanitisierungsverfahren verwendeten Skalierungsfaktors deskaliert. Die Größenordnungen der Nicht-Null-Werte werden dann um den beim Codierer verwendeten Schwellwertbetrag erhöht. Null-Werte werden vom Skalierungs- und Größenordnungseinstellverfahren ausgeschlossen. Das invers quantisierte Ausgangssignal der Einheit 712 wird mit den Hauptsignaldaten kombiniert, um ein hochaufgelöstes Videobild zur Anzeige zu rekonstruieren.
  • Die offenbarte Vorrichtung kann auch in einem Einkanalsystem, wie für das Codieren und für EDTV Signale in einem Einkanalsystem verwendet werden.

Claims (23)

1. Videosignalverarbeitungssystem, das enthält:
Mittel (514) zur Bereitstellung eines ersten Videosignals, das eine Feldraten-Videoinformation enthält, die eine erste Auflösung eines gegebenen Bildes repräsentiert;
Mittel (542) zur Bereitstellung eines zweiten Videosignals (A), das eine weitere Auflösung des gegebenen Bildes repräsentiert, die sich von der durch das erste Videosignal repräsentierten Auflösung unterscheidet;
Mittel (616) zur Datenkompression des zweiten Videosignals, das ein digitales Signal ist, und zur Förderung des synchronen Kombinierens der ersten und zweiten Signale verschiedener Auflösung, welches System gekennzeichnet ist durch:
Mittel (618, 620) zur Bereitstellung eines ersten Flagsignals (SF) zum Synchronisieren eines Videomformationsblocks (B) des zweiten Signals mit der Feldrate des ersten Signals, welcher Videoinformationsblock eine Anzahl von Datenbits enthält, die von Feld zu Feld schwankt; und
Mittel (618, 620) zur Bereitstellung eines zweiten Flagsignals (Flag D; Flag E) in dem Videoblock, um Video-Unterblöcke (LB) in dem Videoblock zu identifizieren, welche Unterblöcke einer Darstellung einer gegenseitig variablen Zeitverzögerung unterzogen sind.
2. System gemäß Anspruch 1, in dem
jeder der Unterblöcke ein Zeilenblock ist, der eine Vielzahl von Bildzeilen umfaßt; und
jeder der Videoblöcke eine Vielzahl der Zeilenblöcke umfaßt.
3. System gemäß Anspruch 2, in dem
jedem der Zeilenblöcke ein Markierungs-Flag (FF, LBF) zur Identifizierung jedes der Zeilenblöcke vorangeht.
4. System gemäß Anspruch 3, in dem
jeder der Zeilenblöcke Videomformation enthält, die zeitmultiplext ist.
5. System gemäß Anspruch 4, in dem
die multiplexte Videomformation die Leuchtdichte- und Chrominanz-Information ist.
6. System gemäß Anspruch 3, in dem
die Markierungs-Flags eindeutig definierte Kopfdaten und Zeilenblocknummerdaten enthalten.
7. System gemäß Anspruch 3, in dem
ein Markierungs-Flag, das am Anfang des Videoblocks erscheint, eindeutig definierte Kopfdaten und Feldnummerdaten enthält.
8. System gemäß Anspruch 3, in dem
die Markierungs-Flags Daten (Pl) zur Steuerung eines Datenkompressionsparameters der Videoblockdaten enthalten.
9. System gemäß Anspruch 8, in dem
das Datenkompressionsmittel ein Datenquantisierungsmittel (612) enthält, das auf die Steuerdaten anspricht.
10. System gemäß Anspruch 1, das ferner enthält:
Datenpuffermittel (625) zur Bereitstellung eines Datensteuersignals, das den Dateneinnahmestatus des Puffers repräsentiert;
Datenquantisierungsmittel (612), die in dem Datenkompressionsmittel enthalten sind und auf das Steuersignal ansprechen; und
Mittel (620) zum Einfügen des Steuersignals (P1) in das zweite Flagsignal.
11. System gemäß Anspruch 6, das ferner umfaßt:
Mittel (618) zum Einfügen vorbestimmter Daten in den Videodatenblock, um die Eindeutigkeit der Kopfdaten sicherzustellen.
12. System gemäß Anspruch 1, das ferner umfaßt:
Mittel (628) zum Einfügen vorbestimmter Daten in das zweite Videosignal, um die Eindeutigkeit der Daten sicherzustellen, die das Synchron-Flag bestimmen.
13. System gemäß Anspruch 1, in dem
das erste Videosignal ein ausgedehntes Videosignal erweiterter Auflösung ist; und
das zweite Signal Videomformation hoher Auflösung enthält.
14. System zum Empfangen und synchronen Kombinieren von ersten und zweiten Videosignalen, welches zweite Signal datenkomprimierte Videomformation enthält, dadurch gekennzeichnet, daß zweite Signal
(a) ein erstes Flag zum Synchronisieren eines Videodatenblockes mit einer Rate aufweist, die auf eine Feldrate des ersten Signals bezogen ist, und
(b) ein zweites Flag innerhalb des Videoblocks aufweist, um Unterblöcke in dem Videoblock zu identifizieren, der einer Darstellung einer variablen Zeitverzögerung unterzogen ist, welches System enthält:
Mittel (728) zur Erfassung des ersten Flags;
Mittel (726), die auf das erste Flag zur Bereitstellung der Ausgabe von Videoblockdaten ansprechen;
Mittel (718) zur Erfassung des zweiten Flags;
Mittel (716-712),die auf die ausgegebenen Videoblockdaten und das erfaßte zweite Flag zur Bereitstellung von datendekomprimierter Videomformation ansprechen; und Mittel (534) zum synchronen Kombinieren der Daten dekomprimierten Videomformation mit dem ersten Videosignal, das die erste Feldrate aufweist und Bildinformation mit verschiedener Bildauflösung relativ zu der der dekomprimierten Videoinformation enthält.
15. System gemäß Anspruch 14, in dem
jeder der Unterblöcke ein Zeilenblock ist, der eine Vielzahl von Bildzeilen umfaßt; und der Videoblock eine Vielzahl von Zeilenblöcken umfaßt.
16. System gemäß Anspruch 15, in dem
jeder der Zeilenblöckezeitmultiplexte Videomformation enthält, und das System ferner enthält:
Mittel, die auf die datendekomprimierte Information zum Demultiplexen der multiplexten Videomformation ansprechen.
17. System gemäß Anspruch 16, in dem
die multiplexte Information Leuchtdichte- und Chrominanz-Information ist.
18. System gemäß Anspruch 15, in dem
jedem der Zeilenblöcke ein Markierungs-Flag entsprechend dem zweiten Flag zur Identifizierung von jedem der Zeilenblöcke voraus läuft.
19. System gemäß Anspruch 18, in dem
die Markierungs-Flags eindeutig definierte Kopfdaten und Zeilenblocknummerdaten enthalten.
20. System gemäß Anspruch 18, in dem
ein Markierungs-Flag, das an dem Anfang von einem Videoblock erscheint, eindeutig definierte Kopfdaten und Feldnummerdaten enthält.
21. System gemäß Anspruch 18, in dem
die Markierungs-Flags Daten zur Steuerung eines Datendekompressionsparameters der Videoblockdaten enthalten.
22. System gemäß Anspruch 21, in dem
die Datendekompressionsmittel inverse Quantisierungsmittel (712) enthalten, die auf die Steuerdaten ansprechen.
23. System gemäß Anspruch 14, das ferner umfaßt:
Mittel (718) zum Abtrennen von vorbestimmten Datenbits von dem empfangenen Videosignal.
DE69027537T 1989-12-22 1990-12-18 System zur synchronisierung von haupt- und hilfsvideosignalen Expired - Fee Related DE69027537T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB898929152A GB8929152D0 (en) 1989-12-22 1989-12-22 A digital augmentation system for actv-ii
US07/609,349 US5121205A (en) 1989-12-12 1990-11-05 Apparatus for synchronizing main and auxiliary video signals
PCT/US1990/007486 WO1991010329A1 (en) 1989-12-22 1990-12-18 Apparatus for synchronizing main and auxiliary video signals

Publications (2)

Publication Number Publication Date
DE69027537D1 DE69027537D1 (de) 1996-07-25
DE69027537T2 true DE69027537T2 (de) 1997-02-13

Family

ID=26296432

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69027537T Expired - Fee Related DE69027537T2 (de) 1989-12-22 1990-12-18 System zur synchronisierung von haupt- und hilfsvideosignalen

Country Status (9)

Country Link
US (1) US5121205A (de)
EP (1) EP0497924B1 (de)
JP (1) JP2761101B2 (de)
KR (1) KR100230646B1 (de)
CN (1) CN1033783C (de)
DE (1) DE69027537T2 (de)
ES (1) ES2089184T3 (de)
GB (1) GB8929152D0 (de)
WO (1) WO1991010329A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19903266B4 (de) * 1999-01-28 2005-09-29 Harman Becker Automotive Systems (Xsys Division) Gmbh Lokales Netzwerk in einem Fahrzeug

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5164963A (en) * 1990-11-07 1992-11-17 At&T Bell Laboratories Coding for digital transmission
JPH04249490A (ja) * 1991-02-06 1992-09-04 Matsushita Electric Ind Co Ltd 符号化装置
JPH04323965A (ja) * 1991-04-23 1992-11-13 Canon Inc 画像符号化方法
JPH04323963A (ja) * 1991-04-23 1992-11-13 Canon Inc 画像処理方法及び装置
JP2977104B2 (ja) * 1991-07-26 1999-11-10 ソニー株式会社 動画像データエンコード方法および装置、並びに動画像データデコード方法および装置
JPH05115007A (ja) * 1991-10-21 1993-05-07 Canon Inc 画像伝送方法
US6680975B1 (en) 1992-02-29 2004-01-20 Samsung Electronics Co., Ltd. Signal encoding and decoding system and method
GB2264603B (en) * 1992-02-28 1995-08-23 Sony Broadcast & Communication Multiplexing and demultiplexing image data
KR960006762B1 (ko) * 1992-02-29 1996-05-23 삼성전자주식회사 화상부호화를 위한 효율적인 2차원 데이타의 주사선택회로
US5517533A (en) * 1992-03-04 1996-05-14 Digital Equipment Corporation Parallel implementation of run length coding apparatus and method
JPH0622215A (ja) * 1992-07-06 1994-01-28 Toshiba Corp 映像送信方法、該方法に用いる映像送信装置および映像受信装置
JP2871316B2 (ja) * 1992-07-10 1999-03-17 日本ビクター株式会社 動画像符号化装置
US5440345A (en) * 1992-07-17 1995-08-08 Kabushiki Kaisha Toshiba High efficient encoding/decoding system
US5359420A (en) * 1992-08-22 1994-10-25 Goldstar Co., Ltd. Macro block address processor for digital compressed video signal decoder
KR960010469B1 (ko) * 1992-10-07 1996-08-01 대우전자 주식회사 Pip 기능을 갖는 디지탈방식 고선명 텔레비젼
US5361098A (en) * 1992-11-30 1994-11-01 Scientific Atlanta, Inc. Methods and apparatus for generating a picture-in-picture digital television frame by inserting a mean-only frame into a full-size frame
EP0852442B1 (de) 1992-12-09 2000-11-02 Discovery Communications, Inc. Fernsehprogrammverteilsystem
US9286294B2 (en) 1992-12-09 2016-03-15 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator content suggestion engine
US7168084B1 (en) 1992-12-09 2007-01-23 Sedna Patent Services, Llc Method and apparatus for targeting virtual objects
JP3341781B2 (ja) * 1992-12-15 2002-11-05 ソニー株式会社 画像復号化装置および画像符号化装置
US5486864A (en) * 1993-05-13 1996-01-23 Rca Thomson Licensing Corporation Differential time code method and apparatus as for a compressed video signal
US5555193A (en) * 1993-05-25 1996-09-10 Kabushiki Kaisha Toshiba Video compression system with editing flag
US5452006A (en) * 1993-10-25 1995-09-19 Lsi Logic Corporation Two-part synchronization scheme for digital video decoders
JP3480735B2 (ja) 1993-11-30 2003-12-22 ゼネラル エレクトリツク カンパニー トランスポート・データパケット組立てシステムにおけるデータストリーム整列インジケータ
US5767912A (en) * 1993-11-30 1998-06-16 General Electric Company Datastream packet alignment indicator in a system for assembling transport data packets
AU5983794A (en) * 1993-11-30 1995-06-19 General Electric Company Data processor for assembling transport data packets
US5784110A (en) * 1993-11-30 1998-07-21 General Electric Company Data processor for assembling transport data packets
US5534937A (en) * 1994-04-14 1996-07-09 Motorola, Inc. Minimum-delay jitter smoothing device and method for packet video communications
JP3161228B2 (ja) * 1994-06-06 2001-04-25 ソニー株式会社 データ処理装置
JP3499302B2 (ja) * 1994-09-20 2004-02-23 株式会社東芝 テレビジョン受信機
CA2157066C (en) 1994-10-21 1999-09-21 Nelson Botsford Iii Method for controlling a compressed data buffer
US5598415A (en) * 1995-08-04 1997-01-28 General Instrument Corporation Of Delaware Transmission of high rate isochronous data in MPEG-2 data streams
US6571361B1 (en) * 1995-09-29 2003-05-27 Kabushiki Kaisha Toshiba Encoder and decoder
US6493838B1 (en) * 1995-09-29 2002-12-10 Kabushiki Kaisha Toshiba Coding apparatus and decoding apparatus for transmission/storage of information
US6415398B1 (en) * 1995-09-29 2002-07-02 Kabushiki Kaisha Toshiba Coding system and decoding system
EP0843467B1 (de) * 1996-11-16 2005-02-09 Micronas GmbH Bussystem für eine Fernsehsignal-Verarbeitungseinrichtung
US5978424A (en) * 1996-11-18 1999-11-02 Zenith Electronics Corporation Frame identification system
JP3907705B2 (ja) * 1996-12-18 2007-04-18 トムソン コンシューマ エレクトロニクス インコーポレイテッド 多重フォーマットビデオ信号処理装置
FR2771574B1 (fr) * 1997-11-21 2001-05-04 Sat Sa De Telecomm Protocole de transmission de donnees numeriques sous forme d'elements mpeg-ts
US6829301B1 (en) 1998-01-16 2004-12-07 Sarnoff Corporation Enhanced MPEG information distribution apparatus and method
US6560285B1 (en) 1998-03-30 2003-05-06 Sarnoff Corporation Region-based information compaction as for digital images
CA2317708A1 (en) * 1998-11-02 2000-05-11 Koninklijke Philips Electronics N.V. Communication system using a multiplex signal carrying an auxiliary signal
US6801536B1 (en) * 2000-03-23 2004-10-05 International Business Machines Corporation Remultiplexing audio/video PES streams from an MPEG transport system
US7793326B2 (en) 2001-08-03 2010-09-07 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator
US7908628B2 (en) 2001-08-03 2011-03-15 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator content coding and formatting
WO2003092274A1 (en) * 2002-04-24 2003-11-06 Thomson Licensing S.A. Auxiliary signal synchronization for closed captioning insertion
US7136417B2 (en) 2002-07-15 2006-11-14 Scientific-Atlanta, Inc. Chroma conversion optimization
US7212675B2 (en) * 2003-01-14 2007-05-01 Comtrak Technologies, L.L.C. Method of finding orphan blocks in block based image compression schemes
US9208824B2 (en) * 2004-05-18 2015-12-08 Broadcom Corporation Index table generation in PVR applications for AVC video streams
US9560367B2 (en) * 2004-09-03 2017-01-31 Nokia Technologies Oy Parameter set and picture header in video coding
US7720251B2 (en) * 2006-06-23 2010-05-18 Echo 360, Inc. Embedded appliance for multimedia capture
KR101280700B1 (ko) * 2009-02-27 2013-07-01 후지쯔 가부시끼가이샤 동화상 부호화 장치, 동화상 부호화 방법 및 동화상 부호화용 컴퓨터 프로그램
US20110166968A1 (en) * 2010-01-06 2011-07-07 Richard Yin-Ching Houng System and method for activating display device feature
US9998750B2 (en) 2013-03-15 2018-06-12 Cisco Technology, Inc. Systems and methods for guided conversion of video from a first to a second compression format
JP2019527943A (ja) 2016-07-05 2019-10-03 ヴィシェアー テクノロジー リミテッドVishare Technology Limited ビデオストリーミングのための方法及びシステム
KR101990019B1 (ko) * 2016-10-17 2019-06-18 주식회사 엠글리쉬 하이브리드 자막 효과 구현 단말 및 방법
US10671305B1 (en) * 2018-10-10 2020-06-02 Veritas Technologies Llc Offset segmentation for improved inline data deduplication

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS438959Y1 (de) * 1964-02-25 1968-04-19
FR2604618A1 (fr) * 1986-10-07 1988-04-08 Caubet Emmanuel Dispositif permettant de mesurer instantanement le volume des larmes
FR2625638B1 (fr) * 1987-12-30 1994-06-17 Thomson Grand Public Procede de synchronisation pour la transmission, sur un canal asynchrone, d'une suite d'images codees au moyen d'un code a longueur variable, et dispositif pour la mise en oeuvre de ce procede
GB8804720D0 (en) * 1988-02-29 1988-03-30 Rca Licensing Corp Compatible widescreen tv
EP0408579A1 (de) * 1988-02-29 1991-01-23 General Electric Company Grossbildfernsehsystem mit erhöhter auflösung durch benutzung von mehreren übertragungskanälen
US4866509A (en) * 1988-08-30 1989-09-12 General Electric Company System for adaptively generating signal in alternate formats as for an EDTV system
US5003377A (en) * 1989-01-12 1991-03-26 Massachusetts Institute Of Technology Extended definition television systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19903266B4 (de) * 1999-01-28 2005-09-29 Harman Becker Automotive Systems (Xsys Division) Gmbh Lokales Netzwerk in einem Fahrzeug

Also Published As

Publication number Publication date
JPH05504664A (ja) 1993-07-15
KR100230646B1 (ko) 1999-11-15
CN1033783C (zh) 1997-01-08
ES2089184T3 (es) 1996-10-01
CN1052761A (zh) 1991-07-03
EP0497924B1 (de) 1996-06-19
GB8929152D0 (en) 1990-02-28
EP0497924A1 (de) 1992-08-12
US5121205A (en) 1992-06-09
WO1991010329A1 (en) 1991-07-11
JP2761101B2 (ja) 1998-06-04
DE69027537D1 (de) 1996-07-25

Similar Documents

Publication Publication Date Title
DE69027537T2 (de) System zur synchronisierung von haupt- und hilfsvideosignalen
DE69124536T2 (de) Bildkodiervorrichtung
DE69418846T2 (de) Verfahren und System zur Zweiweg-Übertragung von digitalen Videosignalen
DE69227402T2 (de) Signalverarbeitungseinrichtung mit hohem Wirkungsgrad und Verminderung des Einflusses von Fehlerausbreitungen
DE69535553T2 (de) Videokompression
DE69321896T2 (de) Gerät und Verfahren zur Verarbeitung von digitalen Bildsignalen
DE3854302T2 (de) Erzeugung von symbolcoden, ausgehend von der zwischenbild-pulscodenmodulation von zeitmultiplexierten raumfrequenzanalysen von videosignalen.
DE3787637T2 (de) Digitale Signalcodierung in zwei Codierkanälen.
DE69116869T2 (de) Digitale bildkodierung mit einer zufallsabtastung der bilder
DE69232913T2 (de) Gerät zur Dekomprimierung von Video-Daten
DE69622644T2 (de) Bildbewegungssignalkodierung und entsprechende Dekodierung
DE69414899T2 (de) Bildsignalverarbeitung
DE69432660T2 (de) Vorrichtung und verfahren zur kodierung/dekodierung von daten für untertitel
DE3908890A1 (de) Bildinformationssignal-uebertragungseinrichtung
DE69737134T2 (de) Modulationsverlaufssteuerung basiert auf Wichtigkeitsfaktor des Eingangssignals
DE69616746T2 (de) Speicherbedarfverringerung in einem SQTV-Prozessor durch ADPCM-Kompression
DE69227879T2 (de) Stehbildübertragungssystem
DE69328698T2 (de) Verfahren und Vorrichtung zur Bildcodierung
DE69028078T2 (de) Kodiervorrichtung mit hoher Wirksamkeit
DE69126525T2 (de) Digitale bildverarbeitung mit filterung der blockkanten
DE68916038T2 (de) Adaptives transformationskodierungssystem.
DE3841173C1 (en) Compatible television transmission system
DE69423389T2 (de) Vorrichtung zur Übertragung oder Aufzeichnung von digitalen Fernsehbildern, und Vorrichtung zum Empfang derselben
DE69113625T2 (de) Kompression digitaler videosignale.
DE69323996T2 (de) Codierer und decodierer

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee