DE69515386T2 - Verfahren zur Verbindung von MPEG-Videosequenzen - Google Patents

Verfahren zur Verbindung von MPEG-Videosequenzen

Info

Publication number
DE69515386T2
DE69515386T2 DE1995615386 DE69515386T DE69515386T2 DE 69515386 T2 DE69515386 T2 DE 69515386T2 DE 1995615386 DE1995615386 DE 1995615386 DE 69515386 T DE69515386 T DE 69515386T DE 69515386 T2 DE69515386 T2 DE 69515386T2
Authority
DE
Germany
Prior art keywords
data
buffer
data stream
sequence
bits
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE1995615386
Other languages
English (en)
Other versions
DE69515386D1 (de
Inventor
Ren Egawa
Edwin Robert Meyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE69515386D1 publication Critical patent/DE69515386D1/de
Application granted granted Critical
Publication of DE69515386T2 publication Critical patent/DE69515386T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23611Insertion of stuffing data into a multiplex stream, e.g. to obtain a constant bitrate
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Description

    Hintergrund der Erfindung
  • Diese Erfindung betrifft die Verarbeitung von Videosignalen, welche gemäß der Norm bzw. dem Standard kodiert wurden, welcher von der Expertengruppe für Bewegtbilder (MPEG; Moving Picture Experts Group) ausgewählt bzw. übernommen wurde, und insbesondere ein Verfahren zum Verbinden bzw. Zusammenführen (splicing) eines MPEG kodierten Datenstromes von einer ersten Quelle mit einem MPEG kodierten Datenstrom von einer zweiten Quelle auf eine Art; welche sicherstellt, dass keine Videodaten verloren werden, wenn das kombinierte Bild wiedergewonnen bzw. wieder hergestellt bzw. reproduziert wird.
  • In den Vereinigten Staaten wurde ein Standard bzw. eine Norm für digital kodierte hochauflösende Fernsehsignale vorgeschlagen. Dieser Standard ist im wesentlichen der gleiche wie der MPEG-2 Standard, vorgeschlagen von der Moving Picture Experts Group (MPEG) der International Standardisierungs-Organisation (ISO). Dieser Standard ist in einer Veröffentlichung eines Entwurfs einer internationalen Norm (DIS = Digital International Standard) beschrieben mit dem Titel "Information Technology - Generic Coding of Moving Pictures and Associated Audio, Recommendation H.262", welcher bei der ISO erhältlich ist, und erläutert den MPEG-2 System-Standard "ISO/IEC 13818-1" und den MPEG-2 digitalen Videokodierungs-Standard "ISO/IEC 13818-2".
  • Der MPEG-2 Standard besteht tatsächlich aus mehreren verschiedenen Standards. Bei MPEG- 2 sind mehrere verschiedene Profile definiert, wobei jedes einem unterschiedlichen Grad an Komplexität des kodierten Bildes entspricht. Für jedes Profil sind verschiedene Niveaus bzw. Pegel bzw. jedes Niveau definiert, wobei jeder Pegel einer unterschiedlichen Bildauflösung entspricht. Einer der MPEG-2 "Standards", welcher als das Haupt-Profil, Haupt-Niveau (Main Profile, Main Level) bekannt ist, wird zum Kodieren von Videosignalen verwendet, welche mit bestehenden Fernsehstandards (zum Beispiel NTSC und PAL) übereinstimmen. Ein anderer "Standard", welcher als Haupt-Profil, Hoch-Niveau (Main Profile, High Level) bekannt ist, wird zum Kodieren von hochauflösenden Fernsehbildern verwendet. Bilder, welche gemäß dem Main Profile, High Level-Standard kodiert werden, können 1.152 aktive Zeilen pro Vollbild und 1.920 Pixel bzw. Bildelemente pro Zeile aufweisen. Dieser Standard wird gegenwärtig als der HDTV-Standard der Vereinigten Staaten verwendet bzw. verwirklicht.
  • Der MPEG-2 Standard definiert eine komplexe Syntax, welche eine Mischung aus Daten- und Steuer-Information enthält. Ein Teil dieser Steuerinformation wird verwendet, damit es ermöglicht wird, dass Signale, welche verschiedene unterschiedliche Formate aufweisen, von dem Standard abgedeckt werden. Diese Formate definieren Bilder, welche unterschiedliche Anzahlen von Bildelementen (Pixel) pro Zeile aufweisen, unterschiedliche Anzahlen von Zeilen pro Vollbild oder Halbbild (field) aufweisen, und unterschiedliche Anzahlen von Vollbildern oder Halbbildern pro Sekunde aufweisen. Zusätzlich definiert die grundlegende Syntax des MPEG-2 Main Profile den komprimierten MPEG-2 Bit-Strom, welcher eine Abfolge von Bildern in sechs Schichten darstellt, die Sequenz- bzw. Abfolgeschicht, die Gruppen-Bilder-Schicht, die Bilder-Schicht, die Scheiben- (slice)Schicht, die Makro-Block- Schicht, und die Block-Schicht. Jede dieser Schichten ist mit einer Steuerinformation und "Füllungs-" ("stuffing") Zeichen gefüllt. Diese Füllungs-(stuffing)Zeichen werden nach Bedarf bzw. wie benötigt eingefügt, um sicherzustellen, dass die Datenrate des Eingabe- Datenstroms an die Rate angepasst ist, mit welcher Bilder dargestellt werden. Schließlich werden andere Steuerinformationen, auch als Seiten-(side)Information bekannt (zum Beispiel Vollbild-Typ, Makroblock-Muster, Bild-Bewegungs-Vektoren, Koeffizienten-Zick-Zack- Muster und Dequantisierungs-Information) über den kodierten Bit-Strom verteilt.
  • Um die digitalen Bilder wirksam bzw. effektiv zu empfangen, muss ein Dekoder die Steuer- Bereiche erkennen, die erforderliche Steuerinformation extrahieren bzw. entnehmen, und die entnommenen Daten verwenden, um die Videosignalinformation zu verarbeiten. Ein Stück der Information, welche für jede Sequenz-Schicht spezifiziert bzw. festgelegt ist, ist die Video-Puffer-Überprüfungs-(VBV; Video Buffering Verifier)Puffergröße. Der VBV Puffergrößenwert bestimmt eine Anzahl an Bits der Eingangsdaten von der Video-Sequenz, welche in dem Eingabepuffer des Dekoders gespeichert werden muss, bevor die Video-Sequenz dekodiert werden kann. Wenn diese Anzahl der Bits gespeichert ist bzw. wird, wenn der Dekodier-Vorgang beginnt, wird der Eingabe-Puffer weder zu voll werden (Überlauf) oder leer werden (Unterlauf) während der Verarbeitung der Video-Sequenz.
  • Der VBV-Puffergrößenwert nimmt an, dass der Eingabepuffer leer ist, wenn die neuen Sequenz- bzw. Abfolge-Daten empfangen werden, oder dass mindestens alle Daten in dem Eingabepuffer entfernt werden, bevor die Inhalte des Eingabe- bzw. Eingangspuffers den VBV-Puffergrößenwert erreichen. Um sicherzustellen, dass der VBV-Puffergrößenwert nicht verursacht, dass der Eingabepuffer überläuft oder unterläuft, wird in dem MPEG Standard bevorzugt, dass jedes Bild-Verbinden- bzw. -Zusammenführen (splicing) bei einer Sequenz- Grenze durchgeführt wird.
  • Diese kann jedoch für Video-Editoren bzw. -Bearbeiter nicht annehmbar sein, welche von einer Szene zu einer anderen schalten wollen, nachdem ein bestimmtes Bild dargestellt wurde, unabhängig davon, ob dieses Bild bei einer Sequenz-Grenze liegt. Es kann auch für Sender nicht wünschenswert sein, welche kurze Programm-Segmente einfügen wollen, zum Beispiel Nachrichten zur Identifikation der Station oder Sendungen in ein HDTV Programm bei willkürlichen Intervallen.
  • Wenn ein Verbinden bzw. Zusammenführen nicht bei einer Sequenz-Grenze durchgeführt wird, dann können die Daten, welche schon in dem Eingabepuffer liegen, nicht aus dem Puffer zur Verarbeitung ausgelesen werden, bis der Puffer aufgrund der neuen Daten von der eingefügten Sequenz überläuft. Alternativ können die Daten, welche schon in dem Eingabepuffer vorhanden sind, verursachen, dass der Dekoder vorzeitig anzeigt, dass das VBV Puffergrößenkriterium erfüllt wurde. In diesem Fall kann der Dekoder bewirken, dass der Eingabepuffer entweder überläuft oder unterläuft bei der Verarbeitung der gespeicherten Daten.
  • Ein Verfahren zum Lösen dieses Problems ist in dem MPEG-2 Standard DIS ISO/IEC 13818- 1 vorgeschlagen. Nach diesem Verfahren werden bestimmte Zugriffseinheiten oder Bilder in dem Datenstrom mit einem SEAMLESS_SPLICE_FLAG gekennzeichnet. Dieses Flag wird verwendet, um sichere Stellen zum Verbinden bzw. Zusammenfügen bzw. Einfügen einer eingefügten Sequenz in die Haupt-Sequenz zu markieren. Wie bei dem herkömmlichen Verbindungs-Verfahren gibt es jedoch nur eine begrenzte Anzahl von Zugriffseinheiten, welche diese Kriterien erfüllen, so dass diese Flags gesetzt werden. Des weiteren begrenzt dieses Verbindungsverfahren die Bit-Rate des eingefügten Stromes auf einen bestimmten Pegel, um dessen Kriterien zu erfüllen, und der eingefügte Strom kann nicht ein Strom mit variabler Bit-Rate sein.
  • Ein anderes Verfahren wäre es ein Format innerhalb des MPEG Standards zu definieren, welches das leichte Einfügen ermöglicht und ein Flag zur Verfügung zu stellen, welches dieses Format identifiziert. Dieses Verfahren kann jedoch nicht inkompatible Formate handhaben und verringert die Robustheit bzw. Stabilität des MPEG Standards.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung ist in einem Verfahren zur Verarbeitung einer Haupt-MPEG kodierten Sequenz verkörpert, um es einer anderen Sequenz zu ermöglichen, bei irgendeiner Bild-Grenze in der Haupt-Sequenz eingefügt zu werden. Gemäß der vorliegenden Erfindung, wie in beiliegendem Anspruch 1 definiert, werden die Haupt- und eingefügten MPEG- Sequenzen analysiert, um eine Anzahl von Füll-Zeichen zu bestimmen, zur Einfügung in den Daten-Strom nach der ausgewählten Bild-Grenze und vor der eingefügten Sequenz. Diese Füll-Zeichen (stuffing characters) werden während des Dekodier-Vorganges ignoriert bzw. nicht beachtet und ermöglichen es, dass der Eingabe-Puffer bis zu einem Pegel bzw. Niveau gelehrt wird, welcher mit der eingefügten Sequenz kompatibel ist. Diese Anzahl der Füll- Zeichen wird bestimmt aus den Daten-Raten der Haupt- und eingefügten Sequenzen und den Intervallen bzw. Abständen zwischen den jeweiligen Zeitpunkten, welche dem Start des Einfügens und den nächsten Dekodier-Zeitstempeln in beiden, den Haupt- und eingefügten Sequenzen, entsprechen. Das Verfahren fügt diese Anzahl von Füll-Zeichen nach dem ausgewählten Verbindungs- bzw. Zusammenführungspunkt ein und fügt dann die eingefügte bzw. einzufügende Sequenz ein.
  • Kurze Beschreibung der Zeichnungen
  • Fig. 1 ist ein Daten-Diagramm, welches einen Einfüge-Vorgang gemäß der vorliegenden Erfindung veranschaulicht.
  • Fig. 2a und 2b sind Diagramme des Puffer-Füllungsgrades gegenüber der Zeit, welche zur Erläuterung der Arbeitsweise der vorliegenden Erfindung für MPEG-2 kodierte Signale mit fester Datenrate nützlich sind.
  • Fig. 3a und 3b sind Diagramme des Puffer-Füllungsgrades gegenüber der Zeit, welche zur Erläuterung der Arbeitsweise der vorliegenden Erfindung für MPEG-2 kodierte Signale mit fester Datenrate nützlich sind.
  • Fig. 4 ist ein Block-Diagramm eines Schaltkreises, welcher zur Verwendung in einem HDTV oder MPEG-2 Kodierer oder Dekoder geeignet ist, welcher in Übereinstimmung mit der vorliegenden Erfindung arbeitet.
  • Fig. 5 ist ein Ablaufdiagramm eines Verfahrens, welches Parameter-Werte aus dem Haupt- und eingefügten Datenstrom extrahiert bzw. entnimmt.
  • Fig. 6 ist ein Ablaufdiagramm eines Verfahrens, welches eine Anzahl von Füll- (stuffing)Bits, welche eingefügt werden sollen, aus den extrahierten Parametern berechnet.
  • Fig. 7 ist ein Ablaufdiagramm eines Einfüge-Vorganges, welcher die Anzahl der Füll- Bits, welche in Fig. 6 berechnet wurden, zwischen dem Einfügungspunkt in der Haupt-Sequenz und dem Start der eingefügten Sequenz einfügt.
  • Fig. 7a, 7b und 7c sind Diagramme des Puffer-Füllungsgrades gegenüber der Zeit, welche zur Erläuterung der Arbeitsweise der vorliegenden Erfindung nützlich sind, wenn die Variable k in Fig. 7 einen Wert von 1 aufweist.
  • Ausführliche Beschreibung
  • Fig. 1 ist ein Daten-Diagramm, welches den Verbindungs- bzw. Zusammenführungsvorgang veranschaulicht. In diesen Figuren wird eine Sequenz 112 in eine Sequenz 110 des Haupt- HDTV Signals eingefügt, um eine modifizierte Sequenz 110' zu bilden. Wie in Fig. 1 gezeigt, umfasst die Haupt-MPEG-Sequenz 110 einen Sequenz-Kopf (sequence header) 112, umfassend einen Sequenz-Startkode, verschiedene Zugriffseinheiten (Bilder) 116 und einen Sequenz-Ende-Kode 114. Aus Gründen der Vereinfachung ist die Gruppe der Bildschichten, welche zwischen der Sequenz-Schicht und der Bild-Schicht liegt, nicht in Fig. 1 gezeigt. Die einzufügende Sequenz 112 umfasst auch einen Sequenz-Kopf 118, verschiedene Zugriffsein heiten 122 und einen Sequenz-Ende-Kode 120.
  • Wie in dem MPEG Standard definiert, kann jedem Sequenz-Start-Kode ein String bzw. eine Zeichenfolge von null-wertigen (zero-valued) Füll-Bits vorangehen. Bei dem MPEG Standard stellen diese Bits eine Null-Information dar, welche von dem Dekoder ignoriert bzw. nicht beachtet wird und nicht in den Eingabe-Puffer geschrieben wird. Die Füll-Bits werden verwendet, um sicherzustellen, dass die Rate, mit welcher Daten zugeführt werden, an die Rate angepasst ist, mit welcher Bilder, welche aus den Daten erhalten werden, dargestellt werden. Während diese Füll-Bits empfangen werden, liest der Dekoder Daten von dem Eingabe-Puffer zur Anzeige aus. Demzufolge wird die Menge der Daten, welche in dem Eingabe-Puffer gehalten bzw. gespeichert werden, verringert, während die Füll-Bits empfangen werden.
  • Die kombinierten Sequenzen sind als der modifizierte bzw. veränderte Daten-Strom 110' von Fig. 1 gezeigt. Dieser Daten-Strom umfasst den Sequenz-Kopf 112, Zugriffseinheiten 116, einen modifizierten Sequenz-Kopf 118', Zugriffseinheiten 122 und einen modifizierten Sequenz-Ende-Kode 120'. Der modifizierte Sequenz-Startkode 118' umfasst einen Sequenz- Ende-Kode, welcher das Ende des ersten Teils der vorangegangenen Haupt-Sequenz kennzeichnet bzw. markiert, eine Anzahl NSTUFF an Füll-Bits (stuffing bits), den Sequenz- Startkode für die eingefügte Sequenz und den modifizierten Kopf bzw. Header für die eingefügte Sequenz. Das Bit-Raten-Feld des ursprünglichen Headers bzw. Kopfes für die eingefügte Sequenz ist verändert, so dass es FFFF hexadezimal ist, was eine variable Bit- Raten-Sequenz kennzeichnet. Diese Veränderung wird nur durchgeführt, wenn die Bit-Rate der eingefügten Sequenz von derjenigen der Haupt-Sequenz verschieden ist und die ursprünglich eingefügte Sequenz eine Sequenz mit konstanter Bit-Rate war.
  • Das Verfahren gemäß der vorliegenden Erfindung verbindet den Start von einer Sequenz mit einer willkürlichen bzw. frei gewählten Zugriffseinheit in einer anderen Sequenz. Das Einfügen der Sequenz wird nur beendet bzw. abgeschlossen, nachdem der verbleibende Teil der ursprünglichen Sequenz mit der eingefügten Sequenz auf die gleiche Art verbunden ist, wie die eingefügte Sequenz mit der Haupt-Sequenz verbunden wurde bzw. war. Demzufolge umfasst der modifizierte Sequenz-Header bzw. - Kopf 120' auch einen Sequenz-Ende-Kode, einige Füll-Bits und den modifizierten Sequenz-Header für die Haupt-Sequenz. Wie bei dem modifizierten Sequenz-Header 118' kann der Sequenz-Header 120' sein Bit-Raten-Feld zu FFFF hexadezimal verändert haben, was eine Sequenz mit variabler Bit-Rate kennzeichnet, wenn die Bit-Raten der Haupt- und eingefügten Sequenzen voneinander abweichen bzw. unterschiedlich sind, und wenn die ursprüngliche Haupt-Sequenz eine konstante Bit-Rate verwendete.
  • Die Anzahl der Füll-Bits, welche hinzugefügt werden sollen, wird durch das Verfahren der vorliegenden Erfindung, wie nachfolgend unter Bezugnahme auf die Fig. 5 und 6 beschrieben, bestimmt. Der tatsächliche Vorgang des Verbindens bzw. Zusammenfügens wird, wie nachfolgend unter Bezugnahme auf die Fig. 2, 3 und 7 beschrieben, durchgeführt.
  • Die Fig. 2a und 2b sind Diagramme des Puffer-Füllungsgrades gegenüber der Zeit, welche das Problem veranschaulichen, welches durch die vorliegende Erfindung angesprochen wird, und das Verfahren, durch welches dieses Problem gelöst wird. Die durchgezogene Linie in Fig. 2a zeigt einen Teil des Daten-Stroms für die Haupt-Sequenz, STREAM1, während die durchgezogene Linie in Fig. 2b einen Teil des Daten-Stromes für die eingefügte Sequenz, STREAM2 zeigt. Bei den beispielhaften Ausführungsformen der Erfindung sind diese Datenströme Bit-Ströme. Vertikale Übergänge in diesen Figuren kennzeichnen Zeitpunkte, bei welchen Daten aus dem Puffer gelesen werden. Es besteht eine Konvention bzw. Übereinkunft bei diesen Arten von Diagrammen, dass Daten so modelliert werden, dass sie sofort bzw. unverzüglich aus dem Puffer ausgelesen werden.
  • Bereiche bzw. Abschnitte der Kurve, welche schräge Linien aufweisen, kennzeichnen die Zeitpunkte, bei welchen Daten in den Puffer geschrieben werden. Die Neigung bzw. Steigung dieser Geraden ist proportional zu der Datenrate des Datenstromes.
  • Die Sequenz STREAM2 soll in die Sequenz STREAM1 zum Zeitpunkt Tl eingefügt werden, unmittelbar nach der Zugriffseinheit AU1. Wenn die maximale Eingabe-Puffer-Größe, welche bei diesem Beispiel verwendet wird, 1000 beträgt, dann würde, wenn STREAM2 in STREAM1 zum Zeitpunkt Tl eingefügt werden sollte, der Puffer überlaufen, bevor die VBV Puffergröße (d. h. 500) für STREAM2 erreicht wurde. Um zu verhindern, dass dieses auftritt, fügt das Verfahren gemäß der vorliegenden Erfindung eine Anzahl NSTUFF an Füll-Bits zwischen der AU1 zum Zeitpunkt Tl und dem Start von STREAM2 ein. Dies wird durch die gestrichelte Linie in Fig. 2a dargestellt. Demzufolge folgt nach dem Zeitpunkt Tl der Puffer- Füllungsgrad für den MPEG Bitstrom der gestrichelten Linie, und folgt nicht der durchgezogenen Linie. Die Werte Tlast, DTS1, Tnext DTSnext, und DTS2 werden verwendet, wie nachfolgend beschrieben, um den optimalen Wert für NSTUFF zu berechnen. Während die Füll-Bits in den Datenstrom eingefügt werden, werden keine neuen Daten zu dem Puffer hinzugefügt. Neue Daten, welche die eingefügte Sequenz darstellen, werden hinzugefügt, wenn die Steigung der gestrichelten Linie nicht Null ist.
  • Es wird angemerkt, unter Bezugnahme auf die Fig. 2a und 2b, dass die Rate, mit welcher Daten bei STREAM2 zur Verfügung gestellt werden, geringer ist als die Rate, mit welcher diese bei STREAM1 zur Verfügung gestellt werden.
  • Nichtsdestoweniger wird der erste Teil der Daten von STREAM2, welcher zwischen den Dekodier-Zeitstempeln DTS1 bis DTSnext zur Verfügung gestellt wird, mit der gleichen Rate zur Verfügung gestellt, wie die Sequenz STREAM1, während der Teil STREAM2, welcher nach DTSnext zur Verfügung gestellt wird, mit der gleichen Rate wie der ursprüngliche STREAM2 zur Verfügung gestellt wird, wie in Fig. 2b gezeigt.
  • Die Diagramme in den Fig. 2a und 2b veranschaulichen die Arbeitsweise einer beispielhaften Ausführungsform des erfindungsgemäßen Verfahrens, wenn die Sequenzen kodiert sind, um eine feste Datenrate aufzuweisen. Die Fig. 3a und 3b veranschaulichen die Arbeitsweise des Verfahrens, wenn die Sequenzen kodiert sind, um eine variable Datenrate aufzuweisen. Punkte in diesen Figuren, welche Punkte in den Fig. 2a und 2b entsprechen, sind durch ein Apostroph (') gekennzeichnet.
  • Fig. 4 ist ein Blockdiagramm und zeigt Teile einer MPEG-2 oder HDTV Vorrichtung zum Verbinden bzw. Zusammenführen (splicer) und einen MPEG-2 oder HDTV Dekoder gemäß der vorliegenden Erfindung. Die Verbindungsvorrichtung umfasst einen Prozessor 412, welcher so verschaltet ist, dass er die Haupt-(main) und eingefügten MPEG-2 HDTV Signale, STREAM1 bzw. STREAM2, empfängt. Jedes dieser Signale kann von einem herkömmlichen HDTV Kodierer erzeugt werden, wie zum Beispiel im US-Patent Nr. 5,294,974 beschrieben mit dem Titel HIGH DEFINITION VIDEO ENCODING SYSTEM HAVING COLORSENSITIVE QUANTIZATION, welches hierdurch bezüglich seiner Lehren für HDTV Kodierer in die Offenbarung aufgenommen wird. Alternativ können diese Signale von einem MPEG-2 Kodierer erzeugt werden, wie zum Beispiel in ISO/IEC 13818-2 DIS beschrieben, was hierdurch bezüglich seiner Lehren für MPEG-2 Kodierer in die Offenbarung aufgenommen wird.
  • Der Prozessor 412 ist mit zwei Puffern gekoppelt, BStest 414 und BSdec 416. Diese Puffer sind vorzugsweise identisch. Der Puffer 414 wird verwendet, um Informationen aufzunehmen, aus welchen der Wert NSTUFF berechnet wird. Das tatsächliche Verbinden bzw. Zusammenführen (splicing) wird unter Verwendung des Puffers 416 durchgeführt. Das zusammengefügte Signal wird dann von dem Puffer 416 zu dem Eingabe-Puffer 424 des Dekoders 420 übertragen. Der Dekoder 420 umfasst auch einen Prozessor 422, welcher die Daten aus dem Eingabe-Puffer 424 zurückgewinnt bzw. ausliest, um ein bewegtes Bild zu reproduzieren bzw. zu erzeugen.
  • Fig. 5 ist ein Ablaufdiagramm, welches das Verfahren veranschaulicht, welches den Prozessor 412 beim Sammeln bzw. Aufnehmen von Informationen über die Sequenzen STREAM1 und STREAM2 steuert. Dieses Verfahren beginnt bei Schritt S10. Bei Schritt S12 initialisiert der Prozessor den Puffer 414 durch das Setzen seines Schreib-Adressen-Pointers auf den Anfang des Puffers. Bei Schritt S14 überträgt der Prozessor STREAM1 zu dem Puffer mit der Datenrate, welche in dem Sequenz-Header für STREAM1 spezifiziert bzw. angegeben ist. Es wird angemerkt, dass bei der beispielhaften Ausführungsform der Erfindung beide, STREAM1 und STREAM2, gespeicherte Signale sind (zum Beispiel aus digitalen Videoband-Recordern rückgewonnen bzw. erhalten). Demzufolge kann zweimal auf die Signale zugegriffen werden, einmal um die Parameter zum Zusammenführen bzw. Verbinden zu bestimmen, und noch einmal, um den tatsächlichen Vorgang des Verbindens durchzuführen. Zum Verbinden von zwei Signalen, welche nicht gespeichert sind, sondern zum Beispiel aus einer Satelliteneinspeisung bzw. von einer Satellitenantenne kommen, kann eine kompensierende Verzögerung (nicht gezeigt) erforderlich sein, so dass die Parameter für das Zusammenführen bzw. Verbinden bestimmt werden können, bevor der tatsächliche Vorgang des Zusammenführens auftritt bzw. durchgeführt wird.
  • Bei Schritt S14 bestimmt das Verfahren, ob der Einfügungspunkt, unmittelbar nach dem Bild, welches durch die Zugriffseinheit AU dargestellt wird, in dem Puffer 414 gespeichert wurde. Bis AU1 empfangen ist, wird jede Zugriffseinheit, welche empfangen wird, aus dem Puffer 414 zu dem Zeitpunkt entfernt, welcher durch das Dekodier-Zeitstempel-(DTS; Decoding Time Stamp)Feld der Zugriffseinheit angegeben wird. Mit anderen Worten werden die Daten aus dem Puffer 414 in der gleichen Sequenz und mit dem gleichen zeitlichen Ablauf entfernt, wie sie von einem Eingangs- bzw. Eingabepuffer durch einen Dekoder entfernt würden, wie zum Beispiel der in Fig. 4 gezeigte Dekoder 420. Selbst wenn die Zugriffseinheit entfernt wird, wird die Sequenz STREAM1 fortgesetzt bzw. weiter mit ihrer geeigneten Datenrate zur Verfügung gestellt, wie bei Schritt 520 dargestellt, und die Regelung bzw. der Ablauf wird zu Schritt 516 übertragen, um zu bestimmen, ob AU1 empfangen wurde.
  • Sobald die Zugriffseinheit AU1 empfangen wurde, geht die Regelung bzw. der Ablauf zu Schritt 522 über, um die Werte für Tlast und Nlast zu bestimmen. Wie in Fig. 2a gezeigt, ist Tlast die zeitliche Differenz zwischen dem Zeitpunkt, wenn AU1 empfangen wurde und DTS1, dem Dekodier-Zeitstempel für AU1, dem Zeitpunkt, bei welchem AU1 aus dem Eingabe- Puffer zur Verarbeitung ausgelesen werden soll.
  • Als nächstes bestimmt das Verfahren bei Schritt 524 Werte für DTSnext, Tnext und Nnext. DTSnext ist die Zeit zu dem nächsten Dekodier-Zeitstempel nach DTS1. In dem MPEG Standard treten die Dekoder-Zeitstempel bei regelmäßigen Intervallen bzw. Abständen auf. Entsprechend kann DTSnext durch das Berechnen der Differenz zwischen DTS1 und dem vorangehenden Dekoder-Zeitstempel und anschließendem Addieren dieser Differenz zu DTS1 berechnet werden. Alternativ kann dieser Wert bestimmt werden durch das Überwachen von STREAM1, Extrahieren bzw. Entnehmen der DTS Werte aus den Headern der Zugriffseinheit, welche AU1 folgen, bis ein DTS angetroffen bzw. ermittelt wird, welcher von DTS1 verschieden ist. Wie in Fig. 2a gezeigt, wird Tnext berechnet durch das Subtrahieren von DTS1 von DTSnext. Ähnlich wird Nnext, die Anzahl der Daten-Bits, welche in dem Puffer während dem Zeitintervall Tnext gespeichert werden, berechnet durch Multiplizieren von Tnext mit der Datenrate, R1, von STREAM1 oder mit jeder Rate, welche kleiner oder gleich der maximalen Datenstromrate Rmax [p.1] ist, wie in ISO/IEC 13818-1 und ISO/IEC 13818-2 definiert. Diese Datenrate ist aus dem Sequenz-Header verfügbar. Wenn STREAM1 ein Datenstrom mit variabler Rate ist, wie in Fig. 3a gezeigt, ist R1 jede Datenrate, welche kleiner oder gleich der maximalen Datenrate für den Datenstrom Rmax [p.1] ist, wie in ISO/IEC 13818-1 und ISO/IEC 13818-2 definiert.
  • Bei Schritt S26 leert das Verfahren, sobald diese Werte bestimmt wurden, wieder den Puffer 414 und beginnt bei Schritt S28 mit dem Speichern von Daten von STREAM2 in den Puffer 414. Diese Daten werden in den Puffer mit einer Bitrate von STREAM2 gespeichert. Wie durch die Schleife, welche Schritt S32 enthält, gezeigt, werden die Daten bis zu einem Zeitpunkt gespeichert; welcher dem Dekoder-Zeitstempel für die erste Zugriffseinheit von STREAM2 entspricht. Dieser Zeitpunkt ist mit DTS2* gekennzeichnet. Die Menge der Daten, welche in dem Puffer 414 bei DTS2* gespeichert ist, ist mit Nnew bezeichnet und dieser Wert wird von dem Verfahren bei Schritt S34 gespeichert. Bei Schritt S36 bestimmt das Verfahren, ob STREAM2 ein Strom mit fester Rate oder ein Strom mit variabler Rate ist. Wenn dieser ein Strom mit variabler Rate ist, wird die Regelung bzw. der Ablauf zu Schritt S38 übertragen, um einen Wert R2 zu bestimmen, welcher die Bitrate von STREAM2 darstellt. In diesem Fall wird R2 der Durchschnitts- bzw. Mittelwert der Datenraten über das Zeitintervall, welches durch DTS2* definiert ist, zugewiesen. Bei Schritt S40 endet das Verfahren zum Sammeln bzw. Aufnehmen der Parameter.
  • Nachdem die Parameter bestimmt wurden, berechnet der Prozessor 412 den Wert NSTUFF. Dieses Verfahren beginnt bei Schritt 610 von Fig. 6. Bei Schritt 612 wird eine temporäre Variable K auf Null gelegt. Als nächstes berechnet Schritt 614 einen Wert Nsplc, welcher eine Menge an Daten darstellt, welche in den Puffer geschrieben werden sollen, mit der Datenrate R2.
  • Bei einigen Verbindungen (splices) kann es nicht möglich sein, die Menge der Daten, welche durch Nnew dargestellt werden, in dem Puffer zu speichern, mit der Datenrate R1 während des Zeitintervalls Tnexc. Diese Situation wird durch die Schleife abgearbeitet, welche die Schritte 614, 616 und 618 umfasst. Bei Schritt 614 wird ein Versuchswert für Nsplc als das Produkt aus K, Tnext und R2 bestimmt. Bei Schritt 616 wird dieser Versuchswert mit der Größe Nnew minus Nlast minus Nnext verglichen.
  • Wenn jedoch Nsplc größer oder gleich ist als Nnew minus Nlast minus Nnext bei Schritt 616, dann wird die Regelung bzw. der Ablauf auf Schritt 620 übertragen, um den Wert NSTUFF nach Gleichung (1) zu bestimmen.
  • NSTUFF = Nlast + Nnext + Nsplc - Nnew (1)
  • Bei Schritt 622 endet das Verfahren. Die Erfinder haben bestimmt, dass wenn diese Anzahl der Füll-Bits vor der eingefügten Sequenz STREAM2 hinzugefügt wird, es keinen Überlauf des Eingabe-Puffers gibt, wenn der Datenstrom empfangen wird.
  • Nachdem ein geeigneter Wert für NSTUFF bestimmt wurde, führt der Prozessor 412 das in Fig. 7 gezeigte Verfahren durch, um STREAM1 mit STREAM2 zu verbinden bzw. zusammenzuführen. Dieses Verfahren beginnt bei Schritt 710 durch das Leeren des in Fig. 4 gezeigten Puffers BSdec 416. Bei Schritt 712 sendet der Prozessor 412 Daten von STREAM1 in den Puffer 416 mit der Datenrate von STREAM1. Bei Schritt 714 bestimmt das Verfahren, ob das letzte Bit von AU1 in den Puffer 416 geschrieben wurde. Wenn nicht, beginnt das Verfahren Daten von STREAM1 zur Verfügung zu stellen, bis AU1 gespeichert wurde, wie durch die Schritte 716 und 718 gekennzeichnet, wobei alle AU's vor AU1 entfernt werden bei Intervallen, welche deren Dekodier-Zeitstempeln (DTS's) entsprechen.
  • Nachdem AU1 gespeichert wurde; entfernt das Verfahren bei Schritt 720 alle AU's in dem Puffer 416, welche vorangehen bzw. vorher liegen und AU1 enthalten, bei dem korrespondierenden Dekodier-Zeitstempel von jeder AU. Beginnend von dem Zeitpunkt, zu welchem AU1 gespeichert wurde, sendet das Verfahren bei Schritt 722 NSTUFF Füll-Bits zum Puffer 416 mit der Bitrate R1. Bei Schritt 724 bestimmt das Verfahren, ob alle NSTUFF der Füll-Bits vor dem Zeitpunkt DTSnexc gesendet wurden. Wenn nicht, wird die Steuerung auf Schritt 734 übertragen, welcher bestimmt, ob alle NSTUFF der Füll-Bits zu dem Zeitpunkt DTSnext gesendet wurden. Wenn diese Bedingung nicht erfüllt ist, wird Schritt 736 ausgeführt, um die verbleibenden Füll-Bits mit der Rate R2 zu dem Puffer 416 zu senden.
  • Wenn jedoch bei Schritt 724 bestimmt wurde, dass die NSTUFF Füll-Bits vor DTSnext gesendet wurden, wird Schritt 726 ausgeführt, welcher mit dem Senden des Anfangsteils von STREAM2 zu dem Puffer 416 mit der Bit-Rate R1 beginnt. Bei Schritt 728 bestimmt das Verfahren, ob die Variable K einen Wert von Null aufweist. Wenn nicht, geht die Regelung auf Schritt 738 über, bei welchem Daten von STREAM2 zu dem Puffer 416 mit der Bit-Rate R2 gesendet werden. Schritt 738 wird auch nach Schritt 734 ausgeführt, wenn bestimmt wurde, dass NSTUFF Bits zum Zeltpunkt DTSnext und nach dem Schritt 736 gesendet wurden. Nach Schritt 738 wird der Schritt 740 ausgeführt, welcher AU2 aus dem Puffer 416 zu einem Zeitpunkt entfernt, welcher DTS2 entspricht.
  • Die Fig. 7a, 7b und 7c sind Diagramme des Puffer-Füllungsgrades über der Zeit, welche ein Zusammenführen bzw. Verbinden zeigen, bei welchem K einen Wert von 1 aufweist. In Fig. 7c wird angemerkt, dass zwischen der Zeit, welche durch DTSnext gekennzeichnet ist, und dem Zeitpunkt, welcher durch DTS2 gekennzeichnet ist, die Bit-Rate R2 beträgt, die Bit- Rate von STREAM2, wenn STREAM2 eine Sequenz mit konstanter Bit-Rate ist, und dies ist die durchschnittliche Bit-Rate während T2* (in Fig. 7b gezeigt), wenn STREAM2 eine Sequenz mit variabler Bit-Rate ist.
  • Wenn jedoch bei Schritt 728 bestimmt wurde, dass die Variable K gleich Null ist, dann wird bei Schritt 730 die erste Zugriffseinheit von STREAM2, AU2, aus dem Puffer entfernt. Nach dem Schritt 730 oder Schritt 740 wird der Schritt 732 ausgeführt, welcher damit fortfährt, Daten von STREAM2 zur Verfügung zu stellen, mit der Bit-Rate von STREAM2. Dies ist der letzte Schritt des Verbindungs- bzw. Zusammenführungs-Verfahrens.
  • Wie in Fig. 4 gezeigt, werden Daten aus dem Puffer 416 entfernt und an den Eingabe-Puffer 424 des Dekoders 420 angelegt. Der Puffer 424 beachtet die Füll-Bits nicht, was effektiv das Anlegen der STREAM2 Daten verzögert, bis ausreichend Daten aus dem Eingabe-Puffer 424 entfernt wurden, durch den Prozessor 422, um Platz für die STREAM2 Daten zu schaffen.

Claims (4)

1. Verfahren zum Verbinden bzw. Zusammenführen (splicing) von ersten und zweiten Daten-Strömen, welche jeweils erste und zweite kodierte hochauflösende (highdefinition) Fernsehsignale darstellen, bei einer ausgewählten Bildgrenze in dem ersten Datenstrom unter Verwendung eines Puffers bzw. Zwischenspeichers, wobei jeder der ersten und zweiten Datenströme eine Datenrate und eine Mehrzahl von Dekodier- Zeitstempeln bzw. -Zeitinformationssignalen (decoding time stamps) aufweisen, welche Zeiten darstellen, zu welchen Daten von bzw. aus dem Puffer ausgelesen bzw. wiedergewonnen werden bzw. werden sollen" wobei das Verfahren die Schritte aufweist:
Analysieren des ersten Datenstroms um eine Menge bzw. die Größe einer Null- Information bzw. Leer-Information zu bestimmen, welche in den ersten Datenstrom nach der ausgewählten Bildgrenze eingefügt werden soll, wobei die Menge der Null- Daten aus den Datenraten der ersten und zweiten Datenströme und der Dekodier- Zeitstempel in den ersten und zweiten Datenströmen bestimmt bzw. ermittelt wird;
Übertragen des ersten Datenstroms bis zu der ausgewählten Bildgrenze zu dem Puffer bzw. Zwischenspeicher;
Übertragen der bestimmten Menge bzw. Größe der Null-Information zu dem Puffer;
Übertragen des zweiten Datenstroms zu dem Puffer; und
Wiedergewinnen des verbundenen bzw. zusammengefügten Datenstroms von bzw. aus dem Puffer.
2. Verfahren nach Anspruch 1, wobei der Schritt des Übertragens des zweiten Datenstroms zu dem Puffer die Schritte umfasst:
Übertragen eines ersten Teils des zweiten Datenstroms zu dem Puffer mit der Datenrate des ersten Datenstroms; und
Übertragen eines zweiten Teils des zweiten Datenstroms zu dem Puffer mit der Datenrate des zweiten Datenstroms.
3. Verfahren nach Anspruch 2, wobei die Datenströme Bit-Ströme sind, welche gemäß einem Standard kodiert sind, welcher von der Expertengruppe für bewegte Bilder (MPEG = Motion-Picture Experts Group) entwickelt wurde, und wobei die Menge bzw. Größe der Null-Information eine Anzahl von Stopfbits bzw. einzufügenden Bits (stuffing bits) ist, welche vor einem Sequenz- bzw. Abfolge-Startkode des zweiten Datenstroms eingefügt werden sollen.
4. Verfahren nach Anspruch 3, wobei die Menge der Null-Information bestimmt wird durch die Gleichung:
NSTUFF = Nlast + Nnext + Nsplc - Nnew
wobei Nlast eine Anzahl der Bits in dem ersten Datenstrom zwischen der Zeit, zu welcher das ausgewählte Bild in den Puffer bzw. Zwischenspeicher gespeichert wird und dem Dekoder-Zeitstempel, bei welchem das ausgewählte Bild aus dem Speicher wiedergewonnen bzw. ausgelesen wird, darstellt; Nnext stellt eine Anzahl an Bits des ersten Datenstroms dar, welche in einem Intervall zwischen zwei Dekoder-Zeitstempeln vorgesehen sein würden; Nsplc stellt eine Anzahl der Bits des ersten Bit-Stromes dar, welche in einer ganzzahligen Anzahl an Intervallen zwischen den Dekoder-Zeitstempeln des ersten Datenstroms vorliegen würden, wobei die Anzahl der Bits größer oder gleich Nnew ist, die Anzahl der Bits in dem zweiten Datenstrom, welche vor dem ersten Dekoder-Zeitstempel des zweiten Datenstromes auftreten.
DE1995615386 1994-07-15 1995-07-13 Verfahren zur Verbindung von MPEG-Videosequenzen Expired - Fee Related DE69515386T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US27651594A 1994-07-15 1994-07-15

Publications (2)

Publication Number Publication Date
DE69515386D1 DE69515386D1 (de) 2000-04-13
DE69515386T2 true DE69515386T2 (de) 2000-08-24

Family

ID=23056938

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1995615386 Expired - Fee Related DE69515386T2 (de) 1994-07-15 1995-07-13 Verfahren zur Verbindung von MPEG-Videosequenzen

Country Status (3)

Country Link
EP (1) EP0692911B1 (de)
JP (1) JP3091393B2 (de)
DE (1) DE69515386T2 (de)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5534944A (en) * 1994-07-15 1996-07-09 Matsushita Electric Corporation Of America Method of splicing MPEG encoded video
CA2157066C (en) * 1994-10-21 1999-09-21 Nelson Botsford Iii Method for controlling a compressed data buffer
JPH08265774A (ja) * 1995-03-27 1996-10-11 Sony Corp 画像圧縮方法及び画像圧縮装置
EP0805601B1 (de) * 1996-05-02 2005-03-30 Sony Corporation Kodierung, Speicherung und Übertragung von digitalen Signalen
CA2197727A1 (en) * 1996-06-27 1997-12-27 Richard Frank Bruno Method for altering a broadcast transmission as a function of its recipient on a communications network
US5917830A (en) * 1996-10-18 1999-06-29 General Instrument Corporation Splicing compressed packetized digital video streams
JP3907705B2 (ja) * 1996-12-18 2007-04-18 トムソン コンシューマ エレクトロニクス インコーポレイテッド 多重フォーマットビデオ信号処理装置
GB9700956D0 (en) * 1997-01-17 1997-03-05 Digi Media Vision Ltd Improvements in or relating to switching between compressed bitstreams
US5982436A (en) * 1997-03-28 1999-11-09 Philips Electronics North America Corp. Method for seamless splicing in a video encoder
WO1998054910A2 (en) * 1997-05-27 1998-12-03 Koninklijke Philips Electronics N.V. Method of switching video sequences and corresponding switching device and decoding system
FR2765983B1 (fr) * 1997-07-11 2004-12-03 France Telecom Signal de donnees de modification d'une scene graphique, procede et dispositif correspondants
GB9716545D0 (en) * 1997-08-06 1997-10-08 Nds Ltd A method and apparatus for switching between digital bit-streams
GB2328099B (en) * 1997-08-08 2002-07-03 British Broadcasting Corp Processing coded video
JPH1175189A (ja) * 1997-08-27 1999-03-16 Mitsubishi Electric Corp 画像符号化方法
KR100574186B1 (ko) * 1997-10-03 2006-04-27 소니 가부시끼 가이샤 부호화 스트림 스플라이싱 장치 및 방법과 부호화 스트림 생성 장치 및 방법과 편집 장치 및 방법 및 편집 시스템
US6154496A (en) * 1997-11-25 2000-11-28 Philips Electronics N.A. Corp. Video buffer for seamless splicing of MPEG streams
US6049569A (en) * 1997-12-09 2000-04-11 Philips Electronics N.A. Corporation Method and apparatus for encoding digital video bit streams with seamless splice points and method and apparatus for splicing such digital video bit streams
JP4232209B2 (ja) * 1998-01-19 2009-03-04 ソニー株式会社 圧縮画像データの編集装置及び圧縮画像データの編集方法
JP4223567B2 (ja) * 1998-02-03 2009-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 符号化ビデオシーケンスの切り替え方法及び装置
CN1169373C (zh) * 1998-02-03 2004-09-29 皇家菲利浦电子有限公司 编码图像序列的切换方法及相应装置
GB9807202D0 (en) 1998-04-03 1998-06-03 Nds Ltd A method and apparatus for processing compressed video data streams
JP2000165802A (ja) 1998-11-25 2000-06-16 Matsushita Electric Ind Co Ltd ストリーム編集装置と編集方法
GB2347812A (en) * 1999-03-08 2000-09-13 Nds Ltd Real time splicing of video signals
GB2353652B (en) * 1999-08-26 2003-07-23 Sony Uk Ltd Signal processor
US8341662B1 (en) 1999-09-30 2012-12-25 International Business Machine Corporation User-controlled selective overlay in a streaming media
US7010492B1 (en) 1999-09-30 2006-03-07 International Business Machines Corporation Method and apparatus for dynamic distribution of controlled and additional selective overlays in a streaming media
US7145912B1 (en) * 2000-03-23 2006-12-05 Tut Systems, Inc. Demultiplexing a statistically multiplexed MPEG transport stream into CBR single program transport streams
US6694060B2 (en) * 2000-12-21 2004-02-17 General Instrument Corporation Frame bit-size allocation for seamlessly spliced, variable-encoding-rate, compressed digital video signals
JP2003204482A (ja) * 2001-10-22 2003-07-18 Matsushita Electric Ind Co Ltd 放送装置
KR20100033492A (ko) * 2007-05-29 2010-03-30 코닌클리케 필립스 일렉트로닉스 엔.브이. 비디오 신호의 물체들의 시각화

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2969782B2 (ja) * 1990-05-09 1999-11-02 ソニー株式会社 符号化データ編集方法及び符号化データ編集装置
US5294974A (en) 1992-07-24 1994-03-15 Matsushita Electric Corporation Of America High-definition video encoding system having color-sensitive quantization
US5367341A (en) * 1992-10-20 1994-11-22 Canon Information Systems, Inc. Digital video editor having lost video frame protection

Also Published As

Publication number Publication date
DE69515386D1 (de) 2000-04-13
JPH0884333A (ja) 1996-03-26
EP0692911A2 (de) 1996-01-17
EP0692911B1 (de) 2000-03-08
JP3091393B2 (ja) 2000-09-25
EP0692911A3 (de) 1996-03-13

Similar Documents

Publication Publication Date Title
DE69515386T2 (de) Verfahren zur Verbindung von MPEG-Videosequenzen
DE69625415T2 (de) Verfahren zur Verbindung von MPEG-Videosequenzen
DE60104013T2 (de) Transkodierung von progressiv-kodierten i-slice-aufgefrischten mpeg datenströmen für trickmodi
DE69425010T2 (de) Prioritätsverarbeitung von kodierten Bildsignalen
DE69803821T2 (de) Verfahren zur rechnerisch graziösen Degradierung in einem audio-visuellen Kompressionssystem
DE69430617T2 (de) Dekoder und verfahren zur dekodierung
DE69827548T2 (de) Anordnung zur Vorverarbeitung für MPEG-2-Kodierung
DE69938093T2 (de) Steuerung der Datenrate für einen MPEG-Transcoder ohne a-priori Kenntnis des Bildtyps
DE69713435T2 (de) Vorrichtung zum Dekodieren von MPEG kodierten Bildern mit Fehlerbehebung
DE69535553T2 (de) Videokompression
DE69917971T2 (de) Verfahren und Vorrichtung zur Verarbeitung von komprimierten Videodatenströmen
DE69526954T2 (de) DATENSTROMERZEUGUNG FüR VIDEOKASSETTENRECORDER IN HDTV TRICKABSPIELBETRIEB
DE69331606T2 (de) Datenwortindikator in einem system zur zusammenstellung von transportdatenpaketen.
DE69838869T2 (de) Vorrichtung und Verfahren zum Spleißen von codierten Datenströmen sowie Vorrichtung und Verfahren zur Erzeugung von codierten Datenströmen
DE69837081T2 (de) Videopufferspeicher zur nahtlosen verbindung von mpeg-strömen
DE69634327T2 (de) Digitale Datenverarbeitung
DE60032841T2 (de) Signalprozessor zum nahtlosen Zusammenfügen von MPEG-2 Bitströmen in einem Videokoder
DE69835211T2 (de) Umschaltung zwischen komprimierten videobitströmen
DE69636152T2 (de) Vorrichtung zur Dekodierung eines digitalen Signals
DE60126114T2 (de) Signalsender und signalempfänger
EP0752789B1 (de) Verfahren, Encoder und Decoder zur Resynchronisierung auf einen fehlerbehafteten Videodatenstrom
DE69527912T2 (de) Verfahren und System zur Steuerung eines Bildkodiererpuffers
DE69421449T2 (de) Kodierer zur adaptiven Kodierung von Videobilddaten getrennt nach der ihnen zugeordneten Priorität
DE69836470T2 (de) Überträger, empfänger und medium für progressives bildsignal
DE69227185T2 (de) Bilddatenkodier/dekodierverfahren und -vorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee