DE602004010668T2 - Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, und computerlesbares programm - Google Patents

Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, und computerlesbares programm Download PDF

Info

Publication number
DE602004010668T2
DE602004010668T2 DE602004010668T DE602004010668T DE602004010668T2 DE 602004010668 T2 DE602004010668 T2 DE 602004010668T2 DE 602004010668 T DE602004010668 T DE 602004010668T DE 602004010668 T DE602004010668 T DE 602004010668T DE 602004010668 T2 DE602004010668 T2 DE 602004010668T2
Authority
DE
Germany
Prior art keywords
dsn
pcs
display
graphics
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602004010668T
Other languages
English (en)
Other versions
DE602004010668D1 (de
Inventor
Joseph Simi Valley MCCROSSAN
Tomoyuki Nara-shi OKADA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE602004010668D1 publication Critical patent/DE602004010668D1/de
Application granted granted Critical
Publication of DE602004010668T2 publication Critical patent/DE602004010668T2/de
Anticipated expiration legal-status Critical
Active legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/213Read-only discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/641Multi-purpose receivers, e.g. for auxiliary information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Description

  • GEBIET DER TECHNIK
  • Die vorliegende Erfindung betrifft ein Aufzeichnungsmedium, wie beispielsweise eine BD-ROM (Blue-ray Disc) und eine Wiedergabevorrichtung, und insbesondere betrifft die vorliegende Erfindung ein Verfahren zur Untertitelung durch Wiedergeben eines digitalen Stroms, der durch Multiplexen eines Video-Stroms und eines Grafik-Stroms erzeugt wird.
  • HINTERGRUND DER TECHNIK
  • Untertitel, die durch Wiedergeben eines Grafik-Stroms angezeigt werden, sind ein wichtiges Mittel für Menschen in unterschiedlichen Sprachgebieten, um sich an Filmen ausländischer Sprache erfreuen zu können. Solch ein Grafik-Strom wird mit einem Video-Strom, der ein sich bewegendes Bild darstellt, Multiplexen unterzogen und auf einem Aufzeichnungsmedium aufgezeichnet. Der Grafik-Strom enthält eine Vielzahl von Anzeigesätzen, die jeweils aus Anzeige-Steuereinformationen und Grafik-Daten gebildet sind. Jeder dieser Anzeigesätze wird zum Anzeigen eines einzelnen Untertitels bei der Wiedergabe eines Films verwendet. Die Anzeigesätze werden von dem Aufzeichnungsmedium gelesen und einer nach dem anderen im Verlauf der Wiedergabe der sich bewegenden Bilder verarbeitet, um die Untertitel zusammen mit dem sich bewegenden Bild anzuzeigen.
  • Wenn hierbei jeder Anzeigesatz erst dann verarbeitet wird, nachdem die Verarbeitung eines unmittelbar vorangehenden Anzeigesatzes abgeschlossen ist, tritt eine Verarbeitungsverzögerung auf. Insbesondere dann, wenn jeder Anzeigesatz eine hohe Auflösung hat, wie beispielsweise 1920 × 1080, tritt eine signifikante Verarbeitungsverzögerung auf. Wenn dementsprechend der Grafik-Strom eine Vielzahl von Anzeigesätzen enthält, steigt der Bedarf an der parallelen Verarbeitung von Anzeigesätzen.
  • Um eine vollständige parallele Verarbeitung von Anzeigesätzen durchzuführen, muss jedoch eine Wiedergabevorrichtung zum Aufzeichnen von Medien, wie beispielsweise BD-ROMs (Blue-ray Discs) mit einem dualen Prozessor-Controller-System ausgestattet sein, bei dem zwei Prozessoren jeweils Grafik-Daten decodieren und zwei Controller jeweils das Decodieren des entsprechenden Prozessors steuern. Dadurch nimmt eine interne Konfiguration der Wiedergabevorrichtung an Komplexität zu. Wenn die interne Konfiguration komplexer ist, steigen die Herstellungskosten, was den verbreiterten Einsatz von Wiedergabevorrichtungen behindert. Dementsprechend ist, selbst wenn eine Parallelverarbeitung mit einem dualen Prozessor-Controller-System erzielt werden kann, solch eine Architektur ein Hindernis für die weit verbreitete Verwendung von Wiedergabevorrichtungen und demzufolge hinsichtlich einer Standardisierung nicht wünschenswert.
  • Das Dokument WO 01/22729 A offenbart ein Tagging-System als einen Mechanismus zum Einfügen von Tags (Kennzeichen) in einen Audio- oder Video-Fernsehrundsendestrom vor oder während der Zeit der Übertragung. Die Tags enthalten Befehls- und Steuerinformationen, die der Empfänger innerhalb des Rundsende-Stroms erfasst, der in einer Speichervorrichtung in dem Empfänger gespeichert wird. Der Empfänger übersetzt die Tags und führt Vorgänge in Reaktion auf die Tags durch, die beispielsweise einen Startpunkt und einen Endpunkt von Programmabschnitten innerhalb des Stroms anzeigen. Es können verschiedene Arten von Tags, beispielsweise jene, die das Durchführen eines Vorgangs bei Empfang erfordern oder jene, die das Durchführen eines Vorgangs bei der Darstellung, zum Beispiel zum Ansehen, erfordern. Tag-Interpretation wird durch Verwendung einer Tag-Vorgangs-Tabelle und einer Tag-Zustands-Maschine erzielt. Das Verarbeiten wird über Komponenten, die in einem Pipeline-Modus arbeiten, gesteuert. Sämtliche Komponenten werden in einem Mehrpfadbetrieb betrieben und können parallel arbeiten. Die Pipeline ist für die Flusssteuerung zwischen den Einheiten zuständig.
  • OFFENBARUNG DER ERFINDUNG
  • Die vorliegende Erfindung zielt darauf ab, eine Wiedergabevorrichtung bereitzustellen, die mit einem Paar aus Prozessor und Controller Parallelverarbeitung von Anzeigesätzen durchführen kann.
  • Die voranstehend erwähnte Aufgabe kann durch die Leistungsmerkmale der Ansprüche erfüllt werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt eine exemplarische Anwendung eines Aufzeichnungsmediums, das Ausführungsformen der vorliegenden Erfindung betrifft.
  • 2 zeigt eine Struktur einer BD-ROM (Blue-ray Disc), die in 1 dargestellt ist.
  • 3 zeigt eine Struktur eines AV-Clips (Audio/Video-Clips).
  • 4A zeigt eine Struktur eines Darstellungs-Grafik-Stroms.
  • 4B zeigt PES-Pakete, die funktionale Segmente enthalten.
  • 5 zeigt eine logische Struktur, die aus verschiedenen Typen von funktionalen Segmenten besteht.
  • 6 zeigt eine Beziehung zwischen Untertitel-Anzeigepositionen und Zeiträumen (Epochs).
  • 7A zeigt eine Datenstruktur eines ODS (Object Definition Segment).
  • 7B zeigt eine Datenstruktur eines PDS (Palette Definition Segment).
  • 8A zeigt eine Datenstruktur eines WDS (Windows Definition Segment).
  • 8B zeigt eine Datenstruktur eines PCS (Presentation Composition Segment).
  • 9 zeigt eine exemplarische Beschreibung von Anzeigesätzen DS zum Anzeigen von Untertiteln.
  • 10 zeigt eine exemplarische Beschreibung eines PCS (Presentation Composition Segment) und eines WDS (Windows Definition Segment) in dem Anzeigesatz DS1.
  • 11 zeigt eine exemplarische Beschreibung eines PCS (Presentation Composition Segment) in einem Anzeigesatz DS2.
  • 12 zeigt eine exemplarische Beschreibung eines PCS (Presentation Composition Segment) in einem Anzeigesatz DS3.
  • 13 zeigt einen Speicherplatz in einem Objekt-Puffer, wenn Aktualisierungen von Grafiken, wie beispielsweise jene durchgeführt werden, die in den 10 bis 12 dargestellt werden.
  • 14 zeigt einen exemplarischen Algorithmus des Berechnens einer DECODEDURATION (DECODIERDAUER).
  • 15 ist ein Ablaufplan des Algorithmus, der in 14 dargestellt ist.
  • Die 16A und 16B sind Ablaufpläne des Algorithmus, der in 14 dargestellt ist.
  • 17A zeigt eine Situation, in der ein Grafik-Objekt in einem Fenster (Window) vorhanden ist.
  • Die 17B und 17C sind Zeitablaufdiagramme, die Parameter zeigen, die in dem in 14 dargestellten Algorithmus verwendet werden.
  • 18A zeigt eine Situation, in der zwei Grafik-Objekte in einem Fenster (Window) vorhanden sind.
  • Die 18B und 18C sind Zeitablaufdiagramme, die Parameter zeigen, die in dem in 14 dargestellten Algorithmus verwendet werden.
  • 19A zeigt eine Situation, in der zwei Grafik-Objekte jeweils in zwei Fenstern (Windows) vorhanden sind.
  • 19B ist ein Zeitablaufdiagramm für die Situation, in der die Decodier-Periode (2) länger ist als eine Summe aus Lösch-Periode (1) und Schreib-Periode (31).
  • 19C ist ein Zeitablaufdiagramm für die Situation, in der die Summe aus Lösch-Periode (1) und Schreib-Periode (31) länger ist als die Decodier-Periode (2).
  • 20 zeigt die Verarbeitungsinhalte eines Anzeigesatzes DS.
  • 21 zeigt, wie zwei Anzeigesätze DS parallel in einem Pipeline-Decodiermodell verarbeitet werden.
  • 22 zeigt ein Beispiel des Überlappens von aktiven Perioden von PCS (Presentation Composition Segments) in drei Anzeigesätzen DS.
  • 23 zeigt die Einstellungen von Zeitstempeln von funktionalen Segmenten in einem jeden Anzeigesatz DS.
  • 24 zeigt Zeitstempel eines PCS (Presentation Composition Segments) in einem jeden Anzeigesatz DS.
  • 25A zeigt einen Fall, in dem aktive Perioden von PCS (Presentation Composition Segments) in zwei Anzeigesätzen DS überlappt werden.
  • 25B zeigt einen Fall, in dem aktive Perioden von PCS (Presentation Composition Segments) in zwei Anzeigesätzen DS nicht überlappt werden.
  • 26 zeigt ein END-Segment, das den Abschluss des Sendens anzeigt.
  • Die 27A bis 27C zeigen eine Beziehung zwischen Überlappungen aktiver Perioden und Zuweisungen von Objekt_IDs (object_ids).
  • 28 zeigt eine interne Konfiguration einer Wiedergabevorrichtung, die die Ausführungsformen der vorliegenden Erfindung betrifft.
  • 29 zeigt die Sendegeschwindigkeiten Rx, Rc und Rd und die Größen einer Grafikebene, eines Puffer für codierte Daten und eines Objekt-Puffer, die in 28 dargestellt sind.
  • 30 ist ein Zeitablaufdiagramm einer Pipeline-Verarbeitung in der Wiedergabevorrichtung.
  • 31 ist ein Zeitablaufdiagramm einer Pipeline-Verarbeitung, wenn das Decodieren von ODS (Object Definition Segments) vor dem Löschen der Grafikebene endet.
  • 32 ist ein Zeitablaufdiagramm, das Veränderungen bei der Belegung des Zusammensetzungs-Puffers, des Objekt-Puffers, des Puffers für codierte Daten und der Grafikebene darstellt.
  • 33 ist ein Ablaufplan eines Vorgangs des Ladens von funktionalen Segmenten.
  • 34 zeigt einen Fall, in dem ein Vorgang des Überspringens durchgeführt wird.
  • 35 zeigt eine Situation, in der der Anzeigesatz DS10 in den Puffer für codierte Daten geladen wird, wenn der Vorgang des Überspringens durchgeführt wird, wie dies in 34 dargestellt ist.
  • 36 zeigt einen Fall, in dem normale Wiedergabe durchgeführt wird.
  • 37 zeigt eine Situation, in der der Anzeigesatz DS1 und der Anzeigesatz DS20 in den Puffer für codierte Daten geladen werden, wenn die normale Wiedergabe durchgeführt wird, wie dies in 36 dargestellt ist.
  • 38 ist ein Ablaufplan einer Funktionsweise eines Grafik-Controllers, der in 28 dargestellt ist.
  • 39 ist ein Ablaufplan der Funktionsweise des Grafik-Controllers.
  • 40 ist ein Ablaufplan der Funktionsweise des Grafik-Controllers.
  • 41 zeigt die Herstellungsschritte der BD-ROM (Blue-ray Disc).
  • BESTE ART UND WEISE DES AUSFÜHRENS DER ERFINDUNG
  • (Erste Ausführungsform)
  • Im Folgenden wird eine Beschreibung eines Aufzeichnungsmediums gegeben, das die erste Ausführungsform der vorliegenden Erfindung betrifft. Zunächst wird im Folgenden die Verwendung des Aufzeichnungsmediums erläutert. 1 zeigt eine exemplarische Anwendung des Aufzeichnungsmediums. In der Zeichnung ist das Aufzeichnungsmedium eine BD-ROM 100. Die BD-ROM 100 wird zum Bereitstellen eines Kinofilms in einem Heimkinosystem verwendet, das eine Wiedergabevorrichtung 200, einen Fernseher 300 und eine Fernbedienung 400 umfasst.
  • Im Folgenden wird die Herstellung des Aufzeichnungsmediums erläutert. Das Aufzeichnungsmedium kann durch Durchführen von Verbesserungen an einer Anwendungsschicht einer BD-ROM erzielt werden. 2 zeigt eine exemplarische Struktur der BD-ROM 100.
  • In der Zeichnung zeigt die vierte Ebene die BD-ROM 100, und die dritte Ebene zeigt eine Spur auf der BD-ROM 100. Die Spur wird so dargestellt, dass sie in einer geraden Linie ausgestreckt ist, obgleich in Wirklichkeit die Spur spiralenförmig von der Mitte der BD-ROM 100 aus nach außen hin verläuft. Die Spur enthält einen Einlaufspur-Bereich (lead-in area) und einen Auslaufspur-Bereich (lead-out area). Der Lautstärke-Bereich besitzt ein Schichtenmodell bestehend aus einer physikalischen Schicht, einer Dateisystemschicht, und einer Anwendungsschicht. Die erste Ebene zeigt ein Format der Anwendungsschicht (Anwendungsformat) der BD-ROM 100 in einer Struktur eines Inhaltsverzeichnisses. Wie dies dargestellt ist, besitzt die BD-ROM 100 ein BDMV-Inhaltsverzeichnis unter einem Hauptinhaltsverzeichnis (ROOT directory). Das BDMV-Inhaltsverzeichnis enthält eine Datei (XXX.M2TS), die einen AV-Clip speichert, eine Datei (XXX.CLPI), die Verwaltungsinformationen des AV-Clips speichert und eine Datei (YYY.MPLS), die einen logischen Abspielpfad (Playlist) für den AV-Clip speichert. Die BD-ROM 100 kann durch Schaffen eines solchen Anwendungsformats realisiert werden. Wenn mehr als eine Datei für jeden der voranstehend genannten Dateitypen vorhanden sind, können drei Inhaltsverzeichnisse, genannt STREAM, CLIPINF und PLAYLIST unter dem BDMV-Inhaltsverzeichnis bereitgestellt werden, um Dateien für denselben Typ wie jeweils XXX.M2TS, Dateien für denselben Typ wie XXX.CLPI und Dateien für denselben Typ wie YYY.MPLS bereitzustellen.
  • Im Folgenden wird der AV (Audio/Video)-Clip (XXX.M2TS) in diesem Anwendungsformat beschrieben.
  • Der AV-Clip (XXX.M2TS) ist ein digitaler Strom des MPEG-TS (Transport Stream) Formats und wird durch Multiplexen eines Video-Stroms, wenigstens eines Audio-Stroms und eines Darstellungs-Grafik-Stroms erhalten. Der Video-Strom stellt ein sich bewegendes Bild des Films dar, der Audio-Strom stellt die Audiodaten des Films dar, und der Darstellungs-Grafik-Strom stellt die Untertitel des Films dar. 3 zeigt eine Struktur des AV-Clips (XXX.M2TS).
  • In der Zeichnung zeigt die mittlere Ebene den AV-Clip. Dieser AV-Clip kann auf die folgende Weise erstellt werden. Der Video-Strom, der aus einer Vielzahl von Video-Rahmen (Bilder pj1, pj2, pj3, ...) gebildet ist und der Audio-Strom, der aus einer Vielzahl von Audio-Rahmen auf der oberen ersten Ebene gebildet ist, werden jeweils auf der oberen zweiten Ebene in PES-Pakete umgewandelt und des Weiteren in TS-Pakete auf der oberen dritten Ebene umgewandelt. Auf ähnliche Weise wird der Darstellungs-Grafik-Strom der unteren ersten Ebene in PES-Pakete auf der unteren zweiten Ebene umgewandelt und wird weiter in TS-Pakete auf der unteren dritten Ebene umgewandelt. Diese TS-Pakete des Video-, Audio-, und Darstellungs-Grafik-Stroms werden Multiplexen unterzogen, um den AV-Clip zu schaffen.
  • 3 zeigt ein Beispiel, bei dem lediglich ein Darstellungs-Grafik-Strom in dem AV-Clip Multiplexen unterzogen wird. Wenn die BD-ROM (Blue-ray Disc) 100 mehrere Sprachen unterstützt, wird jedoch ein Darstellungs-Grafik-Strom für jede der Sprachen einem Multiplexen in dem AV-Clip unterzogen. Der AV-Clip, der auf die voranstehend beschriebene Art und Weise erzeugt wird, wird auf dieselbe Weise wie bei Computerdateien in eine Vielzahl von Bereichen unterteilt und auf der BD-ROM 100 gespeichert.
  • Im Folgenden wird der Darstellungs-Grafik-Strom erläutert. 4A zeigt eine Struktur des Darstellungs-Grafik-Stroms. In der Zeichnung zeigt die erste Ebene die TS-Paket-Zeichenfolge, die den AV-Clip bildet. Die zweite Ebene zeigt die PES-Paket-Zeichenfolge, die den Darstellungs-Grafik-Strom bildet. Die PES-Paket-Zeichenfolge wird durch Verbinden von Nutzdaten (payloads) von TS-Paketen, die einen vorgegebenen PID (Paketidentifizierer) aufweisen, von der TS-Paket-Zeichenfolge auf der ersten Ebene gebildet.
  • Die dritte Ebene zeigt die Struktur des Darstellungs-Grafik-Stroms. Der Darstellungs-Grafik-Strom ist aus funktionalen Segmenten gebildet, die ein PCS (Presentation Composition Segment), ein WDS (Windows Definition Segment), ein PDS (Palette Definition Segment), ein ODS (Object Definition Segment) und ein END-Segment (End of Display Set Segment) enthalten. Von diesen funktionalen Segmenten ist das PCS (Presentation Composition Segment) ein Segment einer Bildschirmzusammensetzung, wohingegen das WDS (Windows Definition Segment), das PDS (Palette Definition Segment) und das ODS (Object Definition Segment) Definitions-Segmente sind. Ein funktionales Segment entspricht entweder einem PES-Paket oder einer Vielzahl von PES-Paketen. Das bedeutet, ein funktionales Segment wird in ein PES-Paket umgewandelt und auf der BD-ROM 100 aufgezeichnet, oder es wird in Fragmente geteilt, die in PES-Pakete umgewandelt und auf die BD-ROM 100 aufgezeichnet werden.
  • 4B zeigt PES-Pakete, die funktionale Segmente enthalten. Wie dies dargestellt ist, ist jedes PES-Paket aus einem Paket-Header und Nutzdaten (payload) gebildet. Die Nutzdaten tragen ein funktionales Segment, und der Paket-Header trägt eine Decodier-Anfangszeit (DTS – decoding start time) und eine Anzeige-Anfangszeit (PTS – display start time of the PCS), die mit dem funktionalen Segment verbunden sind. Im Folgenden werden eine Decodier-Anfangszeit (DTS) und eine Anzeige-Anfangszeit (PTS) eines PES-Pakets, das ein funktionales Segment enthält, als eine Decodier-Anfangszeit (DTS) und eine Anzeige-Anfangszeit (PTS) dieses funktionalen Segments erachtet.
  • Diese verschiedenen Typen von funktionalen Segmenten bilden eine logische Struktur, wie beispielsweise die, die in 5 dargestellt ist. In der Zeichnung zeigt die dritte Ebene die funktionalen Segmente, die zweite Ebene zeigt Anzeigesätze (DS – Display Sets), und die zweite Ebene zeigt Zeiträume (Epochs).
  • Ein Anzeigesatz DS ist eine Gruppe von funktionalen Segmenten in dem Darstellungs-Grafik-Strom, die zum Erzeugen eines Bildschirms an Grafiken verwendet werden. Die Strichlinien hk2 zeigen, zu welchem Anzeigesatz DS die funktionalen Segmente gehören. Wie dies anhand der Zeichnung gesehen werden kann, bildet die Reihe PCS-WDS-PDS-ODS-END einen Anzeigesatz DS. Die Wiedergabevorrichtung 200 liest diese funktionalen Segmente, die den Anzeigesatz DS bilden, von der BD-ROM 100, um einen Bildschirm aus Grafiken zu erzeugen.
  • Ein Zeitraum (Epoch) auf der ersten Ebene bezieht sich auf eine Zeiteinheit der kontinuierlichen Speicherverwaltung auf einer Wiedergabe-Zeitachse des AV-Clips und bezieht sich auf eine Gruppe an Daten, die dieser Zeiteinheit zugewiesen sind. Der an dieser Stelle genannte Speicher enthält eine Grafikebene zum Speichern eines Bildschirms aus Grafiken und einen Objekt-Puffer zum Speichern von unkomprimierten Grafik-Daten. Kontinuierliche Speicherverwaltung bedeutet, dass durch den Zeitraum (Epoch) hindurch weder die Grafikebene noch der Grafik-Puffer geflusht wird und dass das Löschen und das Wiedergeben (Rendering) von Grafiken lediglich innerhalb eines vorgegebenen rechteckigen Bereiches der Grafikebene durchgeführt wird (flushen bedeutet, die gesamte Grafikebene oder den gesamten Objekt-Puffer zu löschen). Eine Größe und eine Position dieses rechteckigen Bereiches werden während des Zeitraums (Epoch) festgelegt. So lange wie das Löschen und das Wiedergeben (Rendering) von Grafiken innerhalb dieses festgelegten rechteckigen Bereiches der Grafikebene durchgeführt wird, wird eine Synchronisation von Video und Grafiken garantiert. Mit anderen Worten bedeutet dies, dass der Zeitraum (Epoch) eine Zeiteinheit auf der Wiedergabe-Zeitachse des AV-Clips ist, während der die Synchronisation von Video und Grafiken garantiert werden kann. Um den Bereich für das Löschen/Wiedergeben (Rendering) der Grafiken in der Grafikebene zu ändern, ist es erforderlich, einen Punkt der Veränderung auf einer Wiedergabe-Zeitachse zu definieren und einen neuen Zeitraum (Epoch) von diesem Punkt an einzustellen. Die Synchronisation von Video und Grafiken wird nicht in einem Grenzbereich zwischen den zwei Zeiträumen (Epochs) garantiert.
  • Hinsichtlich der Untertitelung handelt es sich bei dem Zeitraum (Epoch) um einen Zeitraum auf der Wiedergabezeit-Achse, während dem Untertitel innerhalb des festgelegten rechteckigen Bereiches auf einem Bildschirm erscheinen. 6 zeigt eine Beziehung zwischen Anzeigepositionen für Untertitel und Zeiträumen (Epochs). In der Zeichnung werden die Anzeigepositionen für Untertitel in Abhängigkeit von den Mustern der Bilder geändert. Auf ausführlichere Weise ausgedrückt, bedeutet dies, dass drei Untertitel „Actually." [„Eigentlich"], „I lied to you." [„Ich habe dich angelogen."] und „Sorry." [„Es tut mir leid."] in dem unteren Teil des Bildschirmes angeordnet sind, wohingegen zwei Untertitel „Three years have passed." [„Drei Jahre sind vergangen."] und „Since then" [„Seit damals."] in dem oberen Teil des Bildschirmes angeordnet sind. Auf diese Weise werden die Positionen zum Anzeigen von Untertiteln von einem Rand zu einem anderen Rand auf dem Bildschirm geändert, um die Sichtbarkeit zu verbessern. In solch einem Fall ist auf der Wiedergabe-Zeitachse des AV-Clips ein Zeitraum (Epoch), während dem die Untertitel in dem unteren Teil des Bildschirmes angezeigt werden, Zeitraum1 (Epoch1), und ein Zeitraum (Epoch), während dem die Untertitel in dem oberen Teil des Bildschirmes angezeigt werden, ist Zeitraum2 (Epoch2). In dem Zeitraum Epoch1 entspricht der Bereich zum Wiedergeben der Untertitel dem Fenster Window1, das dem unteren Rand des Bildschirmes entspricht. In dem Zeitraum Epoch2 entspricht der Bereich zum Wiedergeben von Untertiteln dem Fenster Window2, das dem oberen Rand des Bildschirms entspricht. In jedem Zeitraum, Epoch1 und Epoch2, ist die Speicherverwaltung des Objekt-Puffers und der Grafikebene kontinuierlich, so dass die Untertitel nahtlos in dem entsprechenden Randbereich des Bildschirms angezeigt werden. Mit dieser Bemerkung ist die Erläuterung eines Zeitraums (Epoch) abgeschlossen.
  • Im Folgenden wird ein Anzeigesatz (DS) erläutert.
  • In 5 zeigen die Strichlinien hk1, zu welchem Zeitraum (Epoch) die Anzeigesätze (DS) auf der zweiten Ebene gehören. Wie dies dargestellt ist, bilden eine Reihe von Anzeigesätzen (DS), die ein Anzeigesatz eines Zeitraumanfangs (Epoch Start DS), ein Anzeigesatz eines Erfassungs-Punktes (Acquisition Point DS) und ein Anzeigesatz eines Normalfalls (Normal Case DS) sind, einen Zeitraum (Epoch) auf der ersten Ebene. Hierbei sind Zeitraum-Anfang (Epoch Start), Erfassungs-Punkt (Acquisition Point) und Normalfall (Normal Case) Typen von Anzeigesätzen (DS). Obgleich der Anzeigesatz eines Erfassungs-Punktes (Acquisition Point DS) in 5 dem Anzeigesatz eines Normalfalls (Normal Case DS) vorausgeht, können sie auch in der umgekehrten Reihenfolge angeordnet sein.
  • Der Anzeigesatz eines Zeitraum-Anfangs (Epoch Start DS) stellt einen Anzeigeeffekt „new display" („neue Anzeige") bereit und zeigt einen Anfang eines neuen Zeitraums (Epoch) an. Der Anzeigesatz eines Zeitraum-Anfangs (Epoch Start DS) enthält alle funktionalen Segmente, die für die nächste Bildschirmzusammensetzung erforderlich sind. Der Anzeigesatz eines Zeitraum-Anfangs (Epoch Start DS) ist an einer Position vorhanden, die der Zielort eines Vorgangs des Überspringens sein muss, wie beispielsweise ein Anfang oder ein Kapitel in einem Film.
  • Der Anzeigesatz eines Erfassungs-Punktes (Acquisition Point DS) stellt einen Anzeigeeffekt von „display refresh" („Erneuerung der Anzeige") bereit und ist mit dem vorangehenden Anzeigesatz eines Zeitraum-Anfangs (Epoch Start DS) identisch. Der Anzeigesatz eines Erfassungs-Punktes (Acquisition Point DS) ist nicht der Anfang des Zeitraums (Epoch), sondern enthält alle funktionalen Segmente, die für die nächste Bildschirmzusammensetzung erforderlich sind. Dementsprechend können Grafiken auf zuverlässige Art und Weise angezeigt werden, wenn die Wiedergabe von dem Anzeigesatz eines Erfassungs-Punktes (Acquisition Point DS) aus gestartet wird. Das bedeutet, dass es der Anzeigesatz eines Erfassungs-Punktes (Acquisition Point DS) ermöglicht, dass eine Bildschirmzusammensetzung von der Mitte eines Zeitraums (Epoch) aus ausgeführt werden kann.
  • Der Anzeigesatz eines Erfassungs-Punktes (Acquisition Point DS) ist an einer Position vorhanden, die ein Zielort eines Vorgangs des Überspringens sein kann, wie beispielsweise eine Position, die durch einen Zeitsuchlauf bestimmt werden kann. Bei dem Zeitsuchlauf handelt es sich um einen Vorgang des Lokalisierens eines Wiedergabepunktes entsprechend einer Zeiteingabe durch einen Benutzer in Minuten/Sekunden. Die Zeiteingabe wird in einer relativ großen Einheit, wie beispielsweise zehn Minuten und zehn Sekunden gemacht. Dementsprechend ist der Anzeigesatz eines Erfassungs-Punktes (Acquisition Point DS) an einer Position vorhanden, die durch einen Zeitsuchlauf bestimmt werden kann, der in Einheiten von 10 Minuten und 10 Sekunden durchgeführt wird. Durch Bereitstellen des Anzeigesatzes eines Erfassungs-Punktes (Acquisition Point DS), der durch einen Zeitsuchlauf bestimmt werden kann, kann der Grafik-Strom gleichmäßig wiedergegeben werden, wenn ein Zeitsuchlauf durchgeführt wird.
  • Der Anzeigesatz eines Normalfalls (Normal Case DS) stellt einen Anzeigeeffekt von „display update" („Anzeige-Aktualisierung") bereit und weist lediglich einen Unterschied im Vergleich zu der vorangehenden Bildschirmzusammensetzung aus. Wenn beispielsweise der Anzeigesatz DSv denselben Untertitel hat wie der unmittelbar vorangehende Anzeigesatz DSu, jedoch eine Bildschirmzusammensetzung aufweist, die von dem Anzeigesatz DSu abweicht, ist der Anzeigesatz DSv ein Anzeigesatz eines Normalfalls (Normal Case DS), der lediglich ein PCS (Presentation Composition Segment) und ein END (END-Segment) aufweist. Somit ist es nicht länger erforderlich, überlappende ODS (Object Definition Segments) in den Anzeigesätzen DS bereitzustellen, wobei dadurch ermöglicht wird, die Menge an Daten zu reduzieren, die auf der BD-ROM (Blue-ray Disc) 100 gespeichert sind. Da der Anzeigesatz eines Normalfalls (Normal Case DS) lediglich den einen Unterschied aufweist, können Grafiken nicht mit dem Anzeigesatz eines Normalfalls (Normal Case DS) allein angezeigt werden.
  • Im Folgenden werden das ODS (Object Definition Segment), das WDS (Windows Definition Segment) und das PDS (Palette Definition Segment), (Definition Segments) erläutert.
  • Bei dem ODS (Object Definition Segment) handelt es sich um ein funktionales Segment zum Definieren eines Grafik-Objektes. AV-Clips, die auf BD-ROMs aufgezeichnet sind, weisen eine Bildqualität auf, die so hoch wie die bei Hochauflösungsfernsehen ist. Da dies so ist, werden Grafik-Objekte bei einer hohen Auflösung eingestellt, die 1920 × 1080 beträgt. Diese hohe Auflösung ermöglicht Untertitel im Stil der Kinoleinwand, das heißt, elegante Untertitel im handschriftlichen Stil, die plastisch auf BD-ROMS (Blue-ray Discs) wiedergegeben werden können.
  • Ein Grafik-Objekt ist aus einer Vielzahl von Lauflängendaten gebildet. Lauflängendaten drücken eine Pixel-Zeichenfolge unter Verwendung eines Pixel-Codes aus, der einen Pixelwert und eine kontinuierliche Länge des Pixelwertes anzeigt. Der Pixel-Code hat 8 Bits und zeigt einen der Werte von 1 bis 255. Durch die Verwendung dieses Pixel-Codes stellen die Lauflängendaten beliebige 256 Pixelfarben aus den Vollfarben (16.777.216 Farben) ein. Hierbei ist zu beachten, dass es erforderlich ist, eine Zeichenfolge (Character String) auf einen Hintergrund einer transparenten Farbe zu platzieren, um ein Grafik-Objekt als einen Untertitel anzuzeigen.
  • Das Object Definition Segment (ODS) definiert ein Grafik-Objekt entsprechend einer Datenstruktur, die in 7A dargestellt ist. Wie dies in der Zeichnung dargestellt ist, enthält das Object Definition Segment (ODS) ein Feld Segment_Typ (segment_type), das einen Segment-Typ „ODS" anzeigt, ein Feld Segment_Länge (segment_length), das eine Datenlänge des ODS anzeigt, ein Feld Objekt_ID (object_id), das das Grafik-Objekt in dem Zeitraum (Epoch) identifiziert, ein Feld Objekt_Version_Nummer (object_version_number), das eine Version des Object Definition Segment (ODS) in dem Zeitraum (Epoch) anzeigt, ein Feld letztes_Flag_in_Sequenz (last_in_sequence_flag) und ein Feld Objekt_Daten_Fragment (object_data_fragment), das eine aufeinanderfolgende Sequenz von Bytes entsprechend einem Teil oder allen der Grafik-Objekte trägt.
  • Auf ausführlichere Weise ausgedrückt, bedeutet dies, dass das Feld Objekt_ID (object_id) eine Kennung anzeigt, die das Grafik-Objekt und einen Speicherbereich in dem Objekt-Puffer identifiziert, der durch das Grafik-Objekt belegt ist, wenn das Object Definition Segment (ODS) decodiert wird und das Grafik-Objekt in dem Objekt-Puffer zwischengespeichert wird. Da dies so ist, wird, wenn ein oder mehrere Grafik-Objekte in dem Objekt-Puffer vorhanden sind, jeder einzelne Speicherbereich in dem Objekt-Puffer durch einen Wert eines Feldes Objekt_ID (object_id) identifiziert. Hierbei sei angenommen, dass einem Feld Objekt_ID (object_id) zwei oder mehrere Object Definition Segments (ODS) zugewiesen werden. In solch einem Fall wird, nachdem ein Grafik-Objekt, das einem Object Definition Segment (ODS) entspricht, in dem Objekt-Puffer gespeichert wird, dieses Grafik-Objekt mit einem Grafik-Objekt überschrieben, das einem darauffolgenden Object Definition Segment (ODS) mit demselben Feld Objekt_ID (object_id) entspricht. Mit solch einer Aktualisierung soll das Auftreten von kleinen freien Stellen in dem Objekt-Puffer sowie das Breitstreuen von Grafik-Objekten in dem Objekt-Puffer verhindert werden. Wenn Grafiken angezeigt werden, werden Grafik-Objekte in dem Objekt-Puffer ständig zu der Grafikebene übertragen. Da dies so ist, verursacht, wenn viele kleine freie Stellen in dem Objekt-Puffer vorhanden sind, oder wenn ein Grafik-Objekt in dem Objekt-Puffer breitgestreut wird, der Steuerungsaufwand (Over head) zum Lesen des Grafik-Objektes eine Minderung der Effizienz der Übertragung von dem Objekt-Puffer zu der Grafikebene. Solch eine Reduzierung der Übertragungseffizienz kann die synchrone Anzeige von Grafiken und Video beeinträchtigen. Um dies zu verhindern, wird ein vorhandenes Grafik-Objekt in dem Objekt-Puffer durch ein neues Grafik-Objekt, das das gleiche Feld Objekt_ID (object_id) aufweist, überschrieben.
  • Hierbei muss das neue Grafik-Objekt, das das vorhandene Grafik-Objekt überschreibt, eine Größe haben, die der des vorhandenen Grafik-Objektes entspricht, das heißt, das neue Grafik-Objekt darf weder kleiner noch größer als das vorhandene Grafik-Objekt sein. Zum Zeitpunkt des Verfassens muss ein Verfasser dementsprechend die Grafik-Objekte so verfassen, dass sie eine gleiche Größe aufweisen. Diese Beschränkung hinsichtlich der Größe dahingehend, dass Grafik-Objekte, die das gleiche Feld Objekt_ID (object_id) haben, die gleiche Breite und die gleiche Höhe aufweisen müssen, gilt nur innerhalb eines Zeitraums (Epoch). Grafik-Objekte, die das gleiche Feld Objekt_ID (object_id) aufweisen, brauchen nicht die gleiche Größe aufweisen, wenn sie zu unterschiedlichen Zeiträumen (Epochs) gehören.
  • Im Folgenden werden das Feld letztes_Flag_in_Sequenz (last_in_sequence_flag) und das Feld Objekt_Daten_Fragment (object_data_fragment) erläutert. Aufgrund einer Beschränkung hinsichtlich der Nutzdaten (payloads) von PES-Paketen ist eine unkomprimierte Grafik, die einen Untertitel bildet, möglicherweise nicht in der Lage, in einem Object Definition Segment (ODS) enthalten zu sein. In solch einem Fall wird die Grafik in eine Vielzahl von Fragmenten unterteilt, und ein solches Fragment wird in dem Feld Objekt_Daten_Fragment (object_data_fragment) getragen. Wenn ein Grafik-Objekt in einer Vielzahl von Object Definition Segments (ODS) gespeichert wird, weist jedes Fragment, mit Ausnahme des letzten Fragmentes, die gleiche Größe auf. Das heißt, das letzte Fragment ist kleiner als die Größe der vorangehenden Fragmente oder weist die gleiche Größe wie diese auf. Die Object Definition Segments (ODS), die diese Fragmente des Grafik-Objekts tragen, erscheinen nacheinander in dem Anzeigesatz (DS). Das Feld letztes_Flag_in_Sequenz (last_in_sequence_Flag) zeigt ein Ende des Grafik-Objektes an. Obgleich die voranstehend beschriebene Struktur der ODS-Daten auf einem Verfahren zum Speichern von Fragmenten in aufeinanderfolgenden PES-Paketen ohne eine Lücke basiert, können die Fragmente stattdessen auch so in PES-Paketen gespeichert werden, dass sie einige Lücken in den PES-Paketen lassen.
  • Das Palette Definition Segment (PDS) ist ein funktionales Segment zum Definieren einer Palette, die für die Farbumwandlung verwendet wird. Bei der Palette handelt es sich um Daten, die Kombinationen von Pixel-Codes von 1 bis 255 und Pixelwerten zeigen. Ein Pixelwert, auf den hierin verwiesen wird, ist aus einer Differenzkomponente einer roten Farbe (Cr-Wert), einer Differenzkomponente einer blauen Farbe (Cb-Wert) einer Luminanzkomponente (Y-Wert) und einer Transparenzkomponente (T-Wert) gebildet. Durch das Substituieren eines Pixel-Codes von jeden der Lauflängendaten zu einem Pixelwert auf der Palette wird eine Farbe erzeugt. 7B zeigt eine Datenstruktur des Presentation Definition Segment (PDS). Wie dies in der Zeichnung dargestellt ist, enthält das Presentation Definition Segment (PDS) ein Feld Segment_Typ (segment_type), das einen Segment-Typ „PDS" anzeigt, ein Feld Segment_Länge (segment_length), das eine Datenlänge des Presentation Definition Segment (PDS) anzeigt, ein Feld Paletten_ID (palette_id), das die Palette eindeutig identifiziert, ein Feld Paletten_Version_Nummer (palette_version_number), das eine Version des Presentation Definition Segment (PDS) innerhalb eines Zeitraums (Epoch) anzeigt und ein Feld Paletten_Eintrag (palette_entry), das die Informationen für jeden Eintrag trägt. Das Feld Paletten_Eintrag (palette_entry) zeigt eine Differenzkomponente einer roten Farbe (Cr_Wert), eine Differenzkomponente einer blauen Farbe (Cb_Wert), eine Luminanzkomponente (Y_Wert) und eine Transparenz (T_Wert) für jeden Eintrag.
  • Bei dem Windows Definition Segment (WDS) handelt es sich um ein funktionales Segment zum Definieren eines rechteckigen Bereiches in der Grafikebene. Wie dies zu einem früheren Zeitpunkt bereits erwähnt worden ist, ist Speicherverwaltung innerhalb eines Zeitraums (Epoch), während dem Löschen und Wiedergeben (Rendering) in einem festgelegten rechteckigen Bereich in der Grafikebene durchgeführt werden, kontinuierlich. Dieser rechteckige Bereich in der Grafikebene wird als Fenster (Window) bezeichnet, das durch das Windows Definition Segment (WDS) definiert wird. 8A zeigt eine Datenstruktur des Windows Definition Segment (WDS). Wie dies in der Zeichnung dargestellt ist, enthält das Windows Definition Segment (WDS) ein Feld Fenster_ID (window_id), das das Fenster eindeutig in der Grafikebene identifiziert, ein Feld Fenster_horizontale_Position (window_horizontal_position), das eine horizontale Position eines oben links liegenden Pixels des Fensters in der Grafikebene spezifiziert, ein Feld Fenster_vertikale_Position (window_vertical_position), das eine vertikale Position des oben links liegenden Pixels des Fensters in der Grafikebene spezifiziert, ein Feld Fenster_Breite (window_width), das eine Breite des Fensters in der Grafikebene spezifiziert, und ein Feld Fenster_Höhe (window_height), das eine Höhe des Fensters in der Grafikebene spezifiziert.
  • Das Feld Fenster_horizontale_Position (window_horizontal_position), das Feld Fenster_vertikale_Position (window_vertical_position), das Feld Fenster_Breite (window_width) und das Feld Fenster_Höhe (window_height) können die folgenden Werte annehmen. Die Grafikebene dient als ein Koordinatensystem für diese Feld-Werte. Diese Grafikebene besitzt eine zweidimensionale Größe, die durch Parameter des Feldes Video_Höhe (video_height) und des Feldes Video_Breite (video_width) definiert ist.
  • Das Feld Fenster_horizontale_Position (window_horizontal_position) spezifiziert die horizontale Position des oben links liegenden Pixels des Fensters in der Grafikebene und nimmt dementsprechend einen Wert in dem Bereich von 0 (Video_Breite) bis –1 an. Das Feld Fenster_vertikale_Position (window_vertical_position) spezifiziert die vertikale Position des oben links liegenden Pixels des Fensters in der Grafikebene und nimmt dementsprechend einen Wert in dem Bereich von 0 (Video_Höhe) bis –1 an.
  • Das Feld Fenster_Breite (window_width) spezifiziert die Breite des Fensters in der Grafikebene und nimmt dementsprechend einen Wert in dem Bereich 1 bis (Video_Breite) – (Fenster_horizontale_Position) an. Das Feld Fenster_Höhe (window_height) spezifiziert die Höhe des Fensters in der Grafikebene und nimmt dementsprechend einen Wert in dem Bereich 1 bis (Video_Höhe) – (Fenster_vertikale_Position) an.
  • Eine Position und eine Größe eines Fensters können für jeden Zeitraum (Epoch) unter Verwendung dieser Felder Fenster_horizontale_Position (window_horizontal_position), Fenster_vertikale_Position (window_vertical_position), Fenster_Breite (window_width) und Fenster_Höhe (window_height) in dem Windows Definition Segment (WDS) definiert werden. Dadurch kann der Verfasser zum Zeitpunkt des Verfassens ein Fenster so anpassen, dass es in einem gewünschten Rand eines jeden Bildes und in einem Zeitraum (Epoch) erscheint, so dass es nicht mit einem Muster des Bildes interferiert. Grafiken für Untertitel, die auf diese Weise angezeigt werden, können klar gesehen werden. Das Windows Definition Segment (WDS) kann für einen jeden Zeitraum (Epoch) definiert werden. Wenn sich dementsprechend das Muster des Bildes mit der Zeit verändert, können Grafiken auf Basis einer solchen Veränderung so bewegt werden, dass die Sichtbarkeit nicht reduziert wird. Dadurch wird die Qualität des Films auf dasselbe Niveau verbessert, wie in dem Fall, in dem Untertitel in einem sich bewegenden Bild integriert sind.
  • Im Folgenden wird das END-Segment erläutert. Bei dem END-Segment handelt es sich um ein funktionales Segment, das anzeigt, dass das Senden des Anzeigesatzes (DS) abgeschlossen ist. Das END-Segment ist unmittelbar nach dem letzten Object Definition Segment (ODS) in dem Anzeigesatz DS positioniert. Das END-Segment enthält ein Feld Segment_Typ (segment_type), das einen Segment-Typ „END" anzeigt und ein Feld Segment_Länge (segment_length), das eine Datenlänge des END-Segments anzeigt. Diese Felder sind keine hauptsächlichen Leistungsmerkmale der vorliegenden Erfindung, und dementsprechend wurde auf ihre Erläuterung verzichtet.
  • Im Folgenden wird das Presentation Composition Segment (PCS) erläutert.
  • Bei dem Presentation Composition Segment (PCS) handelt es sich um ein funktionales Segment zum Zusammensetzen eines Bildschirms, der mit einem sich bewegenden Bild synchronisiert werden kann. 8B zeigt eine Datenstruktur des Presentation Composition Segment (PCS). Wie dies in der Zeichnung dargestellt ist, enthält das Presentation Composition Segment (PCS) ein Feld Segment_Typ (segment_type), ein Feld Segment_Länge (segment_length), ein Feld Zusammensetzungs_Nummer (composition_number), ein Feld Zusammensetzungs_Zustand (composition_state), ein Feld Paletten_Aktualisierungs_Flag (palette_update_flag), ein Feld Paletten_ID (palette_id) und Felder Zusammensetzungs_Objekt (1) (composition_object(1)) bis Zusammensetzungs_Objekt(m) (composition_object(m)).
  • Das Feld Zusammensetzungs_Nummer (composition_number) identifiziert eine Grafikaktualisierung in dem Anzeigesatz DS eindeutig unter Verwendung einer Zahl von 0 bis 15. Auf ausführlichere Weise ausgedrückt, heißt das, dass das Feld Zusammensetzungs_Nummer (composition_number) um den Wert 1 für jede Grafik-Aktualisierung von Aktualisierung von dem Anfang des Zeitraums (Epoch) bis zu dem Presentation Composition Segment (PCS) inkrementiert wird.
  • Das Feld Zusammensetzungs_Zustand (composition_state) zeigt an, ob es sich bei dem Anzeigesatz DS um einen Anzeigesatz DS eines Normalfalls (Normal Case DS), einen Anzeigesatz eines Erfassungspunktes (Acquisition Point DS) oder einen Anzeigesatz DS eines Zeitraumanfangs (Epoch Start DS) handelt.
  • Das Feld Paletten_Aktualisierungs_Flag (palette_update_flag) zeigt an, ob das Presentation Composition Segment (PCS) eine Anzeigeaktualisierung lediglich für eine Palette beschreibt. Die Anzeigeaktualisierung für lediglich eine Palette betrifft eine Aktualisierung, durch die lediglich eine vorangehende Palette durch eine neue Palette ersetzt wird. Um eine Anzeigeaktualisierung für lediglich eine Palette anzuzeigen, wird das Feld Paletten_Aktualisierungs_Flag (palette_update_flag) auf den Wert 1 eingestellt.
  • Das Feld Paletten_ID (palette_id) spezifiziert die Palette, die in dem Anzeigesatz verwendet werden soll.
  • Die Felder Zusammensetzungs_Objekt(1) bis Zusammensetzungs_Objekt(m) (composition_object(1) bis composition_object(m)) enthalten jeweils Informationen zum Steuern eines einzelnen Fensters in dem Anzeigesatz DS. In 8B zeigen die Strichlinien wd1 eine interne Struktur des Feldes Zusammensetzungs_Objekt(i) (composition_object(i)) als ein Beispiel an. Wie dies dargestellt ist, enthält das Feld Zusammensetzungs_Objekt(i) (composition_object(i)) ein Feld Objekt_ID (object_id), ein Feld Fenster_ID (window_id), ein Feld Objekt_zugeschnitten_Flag (object_cropped_flag), ein Feld Objekt_horizontale_Position (object_horizontal_position), ein Feld Objekt_vertikale_Position (object_vertical_position) und Felder der zuschneiden_rechteckig-Informationen(1) (cropping_rectangular information(1)) bis zuschneiden_rechteckig-Informationen(n) (cropping_rectangular information(n)).
  • Das Feld Objekt_ID (object_id) zeigt eine Kennung eines Object Definition Segment (ODS) entsprechend einem Grafik-Objekt in einem Fenster an, das dem Feld Zusammensetzung_Objekt(1) (composition_object(1)) entspricht.
  • Das Feld Fenster_ID (window_id) zeigt eine Kennung des Fensters an, dem das Grafik-Objekt in dem Presentation Composition Segment (PCS) zugewiesen ist. Einem Fenster können höchstens zwei Grafik-Objekte zugewiesen werden.
  • Das Feld Objekt_zugeschnitten_Flag (object_cropped_flag) zeigt, ob das in dem Objekt-Puffer zugeschnittene Grafik-Objekt angezeigt werden soll oder nicht. Wenn das Feld Objekt_zugeschnitten_Flag (object_cropped_flag) auf den Wert 1 eingestellt wird, wird das in dem Objekt-Puffer zugeschnittene Grafik-Objekt angezeigt. Wenn das Feld Objekt_zugeschnitten_Flag (object_cropped_flag) auf den Wert 0 eingestellt wird, wird das in dem Objekt-Puffer zugeschnittene Grafik-Objekt nicht angezeigt.
  • Das Feld Objekt_horizontale_Position (object_horizontal_position) spezifiziert eine horizontale Position eines oben links liegenden Pixels des Grafik-Objektes in der Grafikebene.
  • Das Feld Objekt_vertikale_Position (object_vertical_position) spezifiziert eine vertikale Position des oben links liegenden Pixels des Grafik-Objektes in der Grafikebene.
  • Die Felder der Informationen(1) zuschneiden_rechteckig (cropping_rectangular information(1)) bis Informationen(n) zuschneiden_rechteckig (cropping_rectangular information(n)) sind gültig, wenn der Wert des Feldes Objekt_zugeschnitten_Flag (object_cropped_flag) 1 beträgt. Die Strichlinien wd2 zeigen eine interne Struktur der Informationen(i) zuschneiden_rechteckig als ein Beispiel an. Wie dies dargestellt ist, enthalten die Informationen(i) zuschneiden_rechteckig (cropping_rectangular) ein Feld Objekt_zuschneiden_horizontale_Position (object_cropping_horizontal_position), ein Feld Objekt_zuschneiden_vertikale_Position (object_cropping_vertical_position), ein Feld Objekt_zuschneiden_Breite (object_cropping_width) und ein Feld Objekt_zuschneiden_Höhe (object_cropping_height).
  • Das Feld Objekt_zuschneiden_horizontale_Position (object_cropping_horizontal_position) spezifiziert eine horizontale Position einer links oben oben liegenden Ecke eines Zuschneide-Rechteckes in dem Grafik-Objekt. Das Zuschneide-Rechteck wird zum Herausnehmen eines Teils des Grafik-Objektes verwendet und entspricht einem „Bereich" in ETSI EN 300 743.
  • Das Feld Objekt_zuschneiden_vertikale_Position (object_cropping_vertical_position) spezifiziert eine vertikale Position der links oben liegenden Ecke des Zuschneide-Rechteckes in dem Grafik-Objekt.
  • Das Feld Objekt_zuschneiden_Breite (object_cropping_width) spezifiziert eine horizontale Länge des Zuschneide-Rechteckes in dem Grafik-Objekt.
  • Das Feld Objekt_zuschneiden_Höhe (object_cropping_height) spezifiziert eine vertikale Länge des Zuschneide-Rechteckes in dem Grafik-Objekt.
  • Im Folgenden wird eine spezifische Beschreibung des Presentation Composition Segment (PCS) unter Verwendung eines Beispiels erläutert, bei dem die drei Untertitel „Actually." [„Eigentlich"], „I lied to you.” [„Ich habe dich angelogen."] und „Sorry." [„Es tut mir leid."], die in 6 dargestellt sind, der Reihe nach während des Verlaufs der Wiedergabe des sich bewegenden Bildes durch drei Vorgänge des Schreibens in die Grafikebene angezeigt werden. 9 zeigt eine exemplarische Beschreibung zum Realisieren einer solchen Untertitelung. In der Zeichnung hat ein Zeitraum (Epoch) den Anzeigesatz DS1 (Anzeigesatz DS des Zeitraumanfangs), den Anzeigesatz DS2 (Anzeigesatz DS des Normalfalls) und den Anzeigesatz DS3 (Anzeigesatz DS des Normalfalls). Der Anzeigesatz DS1 enthält ein Windows Definition Segment (WDS), das ein Fenster definiert, in dem die Untertitel angezeigt werden sollen, ein Object Definition Segment (ODS), das die Zeile „Actually, I lied to you. Sorry." [„Eigentlich habe ich dich angelogen. Es tut mir leid."] anzeigt und ein Presentation Composition Segment (PCS). Der Anzeigesatz DS2 enthält ein Presentation Composition Segment (PCS). Der Anzeigesatz DS3 enthält ein Presentation Composition Segment (PCS).
  • Jedes dieser Presentation Composition Segments (PCS) weist die folgende Beschreibung auf. Die 10 bis 12 zeigen exemplarische Beschreibungen des Windows Definition Segment (WDS) und der Presentation Composition Segments (PCS), die zu den Anzeigesätzen DS1 bis DS3 gehören.
  • 10 zeigt die Beschreibungen des Presentation Composition Segment (PCS) und des Windows Definition Segment (WDS) in dem Anzeigesatz DS1. In der Zeichnung spezifizieren ein Wert des Feldes Fenster_horizontale_Position (window_horizontal_position) und ein Wert des Feldes Fenster_vertikale_Position (window_vertical_position) in dem Windows Definition Segment (WDS) die oben links liegenden Koordinaten LP1 des Fensters in der Grafikebene, und ein Wert des Feldes Fenster_Breite (window_width) und ein Wert des Feldes Fenster_Höhe (window_height) in dem Windows Definition Segment (WDS) spezifizieren eine Breite und eine Höhe des Fensters.
  • Ein Wert des Feldes Objekt_zuschneiden_horizontale_Position (object_cropping_horizontal_position) und ein Wert des Feldes Objekt_zuschneiden_vertikale_Position (object_cropping_vertical_position) der Informationen Zuschneide_Rechteck in dem Presentation Composition Segment (PCS) spezifizieren die links oben liegenden Koordinaten ST1 eines Zuschneide-Rechteckes in einem Koordinatensystem, dessen Ursprung die oben links liegenden Koordinaten des Grafik-Objektes in dem Objekt-Puffer sind. Das Zuschneide-Rechteck ist ein Bereich (durch ein Kästchen mit einer fetten Linie eingeschlossen), der durch einen Wert des Feldes Objekt_zuschneiden_Breite (object_cropping_width) und einen Wert des Feldes Objekt_zuschneiden_Höhe (object_cropping_height) von den oben links liegenden Koordinaten definiert wird. Ein zugeschnittenes Grafik-Objekt wird in einem Bereich cp1 (durch ein Kästchen mit einer Strichlinie eingeschlossen) so positioniert, dass eine oben links liegende Ecke des zugeschnittenen Grafik-Objektes bei einem Pixel liegt, das durch einen Wert des Feldes Objekt_horizontale_Position (object_horizontal_position) und einen Wert des Feldes Objekt_vertikale_Position (object_vertical_position) in dem Koordinatensystem der Grafikebene spezifiziert wird. Auf diese Weise wird der Untertitel „Actually" [„Eigentlich"] von „Actually I lied to you. Sorry." [„Eigentlich habe ich dich angelogen. Es tut mir leid."] in das Fenster der Grafikebene geschrieben. Der Untertitel „Actually" [„Eigentlich"] wird auf ein Bild aufgelegt, und das resultierende Bild wird angezeigt.
  • 11 zeigt eine Beschreibung des Presentation Composition Segment (PCS) in dem Anzeigesatz DS2. Da die Beschreibung des Windows Definition Segment (WDS) die gleiche ist wie die, die in 10 dargestellt ist, wurde ihre Erläuterung weggelassen.
  • Unterdessen unterscheidet sich die Beschreibung der Informationen Zuschneide_Rechteck von der Beschreibung, die in 10 dargestellt ist. In 11 spezifizieren ein Wert des Feldes Objekt_zuschneiden_horizontale_Position (object_cropping_horizontal_position) und ein Wert des Feldes Objekt_zuschneiden_vertikale_Position (object_cropping_vertical_position) in den Informationen Zuschneide_Rechteck (cropping_rectangle information) oben links liegende Koordinaten eines Zuschneide-Rechteckes, das dem Untertitel „I lied to you" [„Ich habe dich angelogen."] in dem Objekt-Puffer entspricht, und ein Wert des Feldes Objekt_zuschneiden_Breite (object_cropping_width) und ein Wert des Feldes Objekt_zuschneiden_Höhe (object_cropping_height) spezifizieren eine Höhe und ein Breite des Zuschneide-Rechteckes. Als Ergebnis wird der Untertitel „I lied to you." [„Ich habe dich angelogen."] in das Fenster der Grafikebene geschrieben. Der Untertitel „I lied to you." [„Ich habe dich angelogen."] wird auf ein Bild aufgelegt, und ein resultierendes Bild wird angezeigt.
  • 12 zeigt eine Beschreibung des Presentation Composition Segment (PCS) in dem Anzeigesatz DS3. Da die Beschreibung des Windows Definition Segment (WDS) in der Zeichnung die gleiche ist wie die Beschreibung, die in 10 dargestellt ist, wird ihre Erläuterung weggelassen. Unterdessen unterscheidet sich die Beschreibung der Zuschneide_Rechteck-Informationen von der Beschreibung, die in 10 dargestellt ist. In 12 spezifizieren ein Wert des Feldes Objekt_zuschneiden_horizontale_Position (object_cropping_horizontal_position) und ein Wert des Feldes Objekt_zuschneiden_vertikale_Position (object_cropping_vertical_position) oben links liegende Koordinaten eines Zuschneide-Rechteckes entsprechend dem Untertitel „Sorry." [„Es tut mir leid."] in dem Objekt-Puffer, und ein Wert des Feldes Objekt_zuschneiden_Höhe (object_cropping_height) und ein Wert des Feldes Objekt_Zuschneiden_Breite (object_cropping_width) spezifizieren eine Höhe und ein Breite des Zuschneide-Rechteckes. Als Ergebnis wird der Untertitel „Sorry." [„Es tut mir leid."] in das Fenster der Grafikebene geschrieben. Der Untertitel „Sorry." [„I Es tut mir leid."] wird auf ein Bild aufgelegt, und ein resultierendes Bild wird angezeigt.
  • 13 zeigt einen Speicherplatz des Objekt-Puffers, wenn solche Grafikaktualisierungen wie jene, die in den 10 bis 12 dargestellt sind, durchgeführt werden. Wie dies dargestellt ist, weist der Objekt-Puffer vier Speicherbereiche A bis D auf, von denen jeder eine festgelegte Höhe und eine festgelegte Breite hat, sowie eine festgelegte Position. Von den Speicherbereichen A bis D wird der Untertitel, der in 10 gespeichert ist, in dem Speicherbereich A gespeichert. Jeder der Speicherbereiche A bis D wird durch ein Feld Objekt_ID (object_id), das einem Grafik-Objekt, das in diesem Speicherbereich gespeichert werden soll, entspricht, identifiziert. Auf ausführlichere Weise ausgedrückt, bedeutet dies, dass der Speicherbereich A durch die Objekt_ID = 1 (object_id = 1) identifiziert wird, der Speicherbereich B durch die Objekt_ID = 2 (object_id = 2) identifiziert wird, der Speicherbereich C durch die Objekt_ID = 3 (object_id = 3) identifiziert wird und der Speicherbereich D durch die Objekt_ID = 4 (object_id = 4) identifiziert wird. Um eine Effizienz des Sendens von dem Objekt-Puffer zu der Grafikebene aufrechtzuerhalten, werden die Höhe und die Breite eines jeden Speicherbereiches A bis D festgelegt. Da dies so ist, wird, wenn ein Grafik-Objekt, das eine Objekt_ID (object_id) hat, als Ergebnis des Decodierens erhalten wird, dieses Grafik-Objekt in einen Speicherbereich, der durch die Objekt_ID (object_id) identifiziert wird, über ein vorhandenes Grafik-Objekt geschrieben. Um beispielsweise einen Untertitel an derselben Position und mit der gleichen Größe wie die Untertitel, die in den 10 bis 12 dargestellt sind, anzuzeigen, muss ein Objekt Definition Segment (ODS), das die gleiche Objekt_ID (object_id) wie das Object Definition Segment (ODS) in dem Anzeigesatz DS1 aufweist, in einem darauffolgenden Anzeigesatz vorhanden sein. Durch Hinzufügen der gleichen Objekt_ID (object_id) auf eine solche Weise wird ein Grafik-Objekt in dem Objekt-Puffer durch ein neues Grafik-Objekt überschrieben, das an derselben Position und mit derselben Größe wie das überschriebene Grafik-Objekt angezeigt wird.
  • Im Folgenden werden Beschränkungen hinsichtlich des Erzielens von Anzeigeeffekten beschrieben. Um Untertitel gleichmäßig anzuzeigen, ist es erforderlich, Löschen und Wiedergeben (Rendering) in einem Fenster durchzuführen. Wenn das Löschen in einem Fenster und das Wiedergeben (Rendering) in einem Fenster bei einer Bildwechselfrequenz von Video-Rahmen durchgeführt werden, ist die folgende Sendegeschwindigkeit von dem Objekt-Puffer zu der Grafikebene erforderlich.
  • Zunächst wird eine Beschränkung hinsichtlich der Größe des Fensters analysiert. Angenommen, Rc ist die Sendegeschwindigkeit von dem Objekt-Puffer zu der Grafik ebene. In einem Schlimmstfallszenario muss das Löschen in einem Fenster und das Wiedergeben in einem Fenster mit der Sendegeschwindigkeit Rc durchgeführt werden. Mit anderen Worten bedeutet dies, dass das Löschen in dem Fenster sowie das Wiedergeben in dem Fenster jeweils bei einer Hälfte der Sendegeschwindigkeit Rc (Rc/2) durchgeführt werden muss.
  • Um das Löschen in einem Fenster und das Wiedergeben in einem Fenster mit einem Video-Rahmen zu synchronisieren, muss die Beziehung (Fenstergröße) × (Bildwechselfrequenz) = Rc/2erfüllt sein. Wenn die Bildwechselfrequenz 29,97 beträgt, gilt die Beziehung Rc = (Fenstergröße) × 2 × 29,97
  • Um einen Untertitel anzuzeigen, muss die Größe des Fensters wenigstens 25% bis 33% der gesamten Grafikebene entsprechen. Wenn eine Gesamtpixelanzahl der Grafikebene 1920 × 1080 beträgt und eine Bitlänge eines Index pro Pixel 8 Bits beträgt, beträgt die Gesamtkapazität der Grafikebene 2 Mbytes (= 1920 × 1080 × 8).
  • Angenommen, die Größe des Fensters ist 1/4 der Grafikebene, das heißt, 50 Kbytes (= 2 Mbytes/4). Durch Ersetzen dieser Beziehung mit der voranstehenden Gleichung ergibt sich Rc = 256 Mbps (500 Kbytes × 2 × 29.97).
  • Wenn auf diese Weise die Größe des Fensters ungefähr 25% bis 30% der Grafikebene beträgt, können Anzeigeeffekte von Untertiteln erzielt werden, ohne dass dabei eine Synchronisation mit einem sich bewegenden Bild verloren geht, so lange wie die Untertitel mit einer Bildwechselfrequenz von Rc = 256 Mbps angezeigt werden.
  • Wenn das Löschen in dem Fenster und das Wiedergeben (Rendering) in dem Fenster bei 1/2 oder bei 1/4 Video-Bildwechselfrequenz durchgeführt werden kann, kann die Größe des Fensters mit derselben Bildwechselfrequenz verdoppelt oder vervierfacht werden.
  • Im Folgenden werden eine Position und ein Bereich eines Fensters erläutert. Wie dies bereits zu einem früheren Zeitpunkt erwähnt worden ist, sind eine Position und ein Bereich eines Fensters innerhalb eines Zeitraums (Epoch) aus dem folgenden Grund festgelegt.
  • Wenn die Position oder der Bereich des Fensters innerhalb des Zeitraums (Epoch) variiert, muss eine Schreibadresse zu der Grafikebene geändert werden. Dadurch wird Steuerungsaufwand (Overhead) verursacht, was zu einem Abfall der Sendegeschwindigkeit Rc von dem Objekt-Puffer zu der Grafikebene führt.
  • Eine Anzahl von Grafik-Objekten, die gleichzeitig in einem Fenster angezeigt werden können, ist beschränkt, um den Steuerungsaufwand zu reduzieren, wenn decodierte Grafik-Objekte zu der Grafikebene gesendet werden. Der an dieser Stelle genannte Steuerungsaufwand tritt auf, wenn die Adressen von Kantenteilen der Grafik-Objekte eingestellt werden. Dieser Steuerungsaufwand nimmt zu, wenn die Anzahl von Kantenteilen größer ist.
  • Wenn keine Beschränkung hinsichtlich der Anzahl von Grafik-Objekten, die in einem Fenster angezeigt werden können, besteht, tritt der Steuerungsaufwand unbegrenzt auf, wenn Grafik-Objekte zu der Grafikebene gesendet werden, wodurch eine Variation bei der Sendelast erhöht wird. Wenn im Gegensatz dazu die Anzahl von Grafik-Objekten in einem Fenster auf 2 begrenzt ist, kann die Sendegeschwindigkeit Rc basierend auf der Annahme eingestellt werden, dass die Anzahl von Fällen von auftretendem Steuerungsaufwand im schlimmsten Fall 4 beträgt. Demzufolge kann auf einfache Weise ein Mindeststandard für die Sendegeschwindigkeit Rc bestimmt werden. Mit dieser Bemerkung ist die Erläuterung zu einem Fenster abgeschlossen.
  • Im Folgenden wird erläutert, wie Anzeigesätze, die funktionale Segmente, wie beispielsweise die voranstehend beschriebenen Presentation Composition Segments (PCS) und Objekt Definition Segments (ODS) tragen, auf der Wiedergabe-Zeitachse des AV-Clips zugewiesen werden. Ein Zeitraum (Epoch) ist ein Zeitraum auf der Wiedegabe-Zeitachse, während dem Speicherverwaltung kontinuierlich ist, und er besteht aus einem oder mehreren Anzeigesätzen DS. Demzufolge ist es wichtig, Anzeigesätze DS auf effektive Weise auf der Wiedergabe-Zeitachse des AV-Clips zuzuweisen. Die Wiedergabe-Zeitachse des AV-Clips, die an dieser Stelle erwähnt wird, ist eine Zeitachse zum Definieren von Decodierzeiten und Darstellungszeiten von einzelnen Bildern, die den Video-Strom, der in dem AV-Clip Multiplexen unterzogen wird, bilden. Die Decodierzeiten und die Anzeigezeiten auf der Wiedergabe-Zeitachse werden mit einer Zeitgenauigkeit von 90 KHz ausgedrückt. Decodier-Anfangszeiten (DTS) und Anzeige-Zeiten (PTS) von Presentation Composition Segments (PCS) und Object Definition Segments (ODS) in Anzeigesätzen DS spezifizieren die Zeitpunkte für die synchrone Steuerung auf dieser Wiedergabe-Zeitachse. Mit anderen Worten bedeutet dies, dass die Anzeigesätze DS auf der Wiedergabe-Zeitachse durch Ausführen einer synchronen Steuerung unter Verwendung der Decodier-Anfangszeiten (DTS) und der Anzeige-Anfangszeiten (PTS) der Presentation Composition Segments (PCS) und Object Definition Segments (ODS) angeordnet werden.
  • Im Folgenden wird zuerst die synchrone Steuerung unter Verwendung einer Decodier-Anfangszeit (DTS) und einer Anzeige-Anfangszeit (PTS) eines Object Definition Segments (ODS) erläutert.
  • Die Decodier-Anfangszeit (DTS) zeigt eine Zeit, zu der ein Decodierungsprozess des Object Definition Segment (ODS) gestartet werden soll, mit einer Zeitgenauigkeit von 90 KHz. Die Anzeige-Anfangszeit (PTS) zeigt eine Zeit, zu der der Decodierungsprozess des Object Definition Segment (ODS) abgeschlossen werden soll, mit einer Zeitgenauigkeit von 90 KHz.
  • Der Decodierungsprozess ist aus einem Decodieren des Object Definition Segment (ODS) und dem Senden eines unkomprimierten Grafik-Objektes, das durch das Decodieren erzeugt wird, zu dem Objekt-Puffer gebildet. Dieser Decodierungsprozess wird nicht sofort abgeschlossen, sondern nimmt eine bestimmte Länge an Zeit in Anspruch. Die Decodier-Anfangszeit (DTS) und die Anzeige-Anfangszeit (PTS) des Object Definition Segment (ODS) zeigen jeweils die Decodier-Anfangszeit und die Decodier-Endzeit des Objekt Definition Segment (ODS), um den Anfang und das Ende des Decodierungsprozesses zu spezifizieren.
  • Da die Zeit, die durch die Anzeige-Anfangszeit (PTS) angezeigt wird, eine Ablauffrist ist, ist es erforderlich, das Object Definition Segment (ODS) zu decodieren und ein un komprimiertes Grafik-Objekt in dem Objekt-Puffer bis zu dem Zeitpunkt, der durch die Anzeige-Anfangszeit (PTS) dargestellt wird, zu speichern.
  • Eine Anfangs-Decodierzeit (DTS) von beliebigen Object Definition Segments (ODS) in den Anzeigesätzen DSn wird durch DTS(DSn[ODSj]) mit einer Zeitgenauigkeit von 90 KHz spezifiziert. Da dies so ist, ist eine Decodier-Endzeit des Object Definition Segment ODSj in dem Anzeigesatz DSn (das heißt, PTS(DSn[ODSj]) eine Summe aus DTS(DSn[ODSj]) und einer maximalen Zeit, die für einen Decodierungsprozess erforderlich ist.
  • Angenommen SIZE(DSn[ODSj]) bezeichnet eine Größe eines Object Definition Segment ODSj, und Rd bezeichnet eine ODS-Decodiergeschwindigkeit. Dann ist die maximale Zeit, die für den Decodierungsprozess erforderlich ist (in Sekunden), SIZE(DSn[ODSj])//Rd. Das Symbol „//" stellt einen Operator für eine Division dar, wobei ein Bruchteil aufgerundet wird.
  • Durch Umwandeln dieser maximalen Zeit mit der Genauigkeit von 90 KHz und durch Hinzufügen des Ergebnis zu der Decodier-Anfangszeit des Objekt Definition Segment ODSj wird die Decodier-Endzeit des Object Definition Segment ODSj, das durch die Anzeige-Anfangszeit (PTS) spezifiziert wird, mit der Genauigkeit von 90 KHz berechnet.
  • Diese Anzeige-Anfangszeit (PTS) des Object Definition Segment ODSj in dem Anzeigesatz DSn kann durch die folgende Gleichung dargestellt werden: PTS(DSn[ODSj]) = DTS (DSn[ODSj] + 90.000 × (Size(DSn[ODSj]//Rdausgedrückt werden.
  • Darüber hinaus müssen zwei einander angrenzende Object Definition Segments (ODS) (ODSj und ODSj + 1) die folgende Beziehung erfüllen: PTS(DSn[ODSj] ≤ DTS(DSn[ODSj + 1])
  • Ein END-Segment in dem Anzeigsatz DSn zeigt ein Ende des Datensatzes DSn an. Dementsprechend zeigt das END-Segment die Decodier-Endzeit eines letzten Object Definition Segment (ODSlast) in dem Anzeigesatz DSn an. Die Decodier-Endzeit des letzten Object Definition Segment ODSlast wird durch eine Anzeige-Anfangszeit PTS des letzten Object Definition Segment (ODSlast) angezeigt, (PTS(DSn[ODSlast])), so dass eine Anzeige-Anfangszeit PTS des END-Segments wie folgt eingestellt wird: PTS(DSn[END]) = PTS(DSn[ODSlast])
  • Unterdessen werden eine Decodier-Anfangszeit (DTS) und eine Anzeige-Anfangszeit (PTS) in den Anzeigesätzen DSn auf die folgende Weise eingestellt.
  • Die Decodier-Anfangszeit (DTS) des Presentation Composition Segment (PCS) zeigt entweder eine Decodier-Anfangszeit eines oben liegenden Object Definition Segment ODS (ODS1) in dem Anzeigesatz DSn oder eine frühere als diese Zeit. Dies rührt daher, dass das Presentation Composition Segment (PCS) zur gleichen Zeit oder zu einer früheren Zeit als die Decodier-Anfangszeit (DTS) des Object Definition Segment (ODS1) in einen Puffer der Wiedergabevorrichtung 200 geladen werden muss (DTS(DSn[ODS1])), oder eine Zeit, zu der ein oben liegendes Palette Definition Segment PDS (PDS1) in dem Anzeigesatz DSn gültig wird (PTS(DSn[PDS1])). Dies bedeutet, dass die Decodier-Anfangszeit (DTS) des Presentation Composition Segment (PCS) die folgenden Formeln erfüllen muss: (DTS(DSn[PCS]) ≤ DTS(DSn[ODS1]) (DTS(DSn[PCS]) ≤ PTS(DSn[PDS1])
  • Im Gegensatz dazu wird die Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) auf die folgende Weise berechnet: (DTS(DSn[PCS]) ≥ DTS(DSn[PCS]) + DECODEDURATION (DSn)
  • Hierbei zeigt DECODEDURATION(DSn) [DECODIERDAUER(DSn)] eine Zeit an, die zum Decodieren und zum Anzeigen aller Grafik-Objekte, die für die in dem Presentation Composition Segment (PCS) des Anzeigesatzes DSn beschriebenen Aktualisierungen verwendet werden, erforderlich ist. Obgleich DECODEDURATION(DSn) kein unveränderlicher Wert ist, wird er durch Faktoren wie Differenzen hinsichtlich des Zustandes oder der Implementierung von Wiedergabevorrichtungen nicht beeinträchtigt. Wenn ein Grafik-Objekt, das für eine Bildschirmzusammensetzung verwendet wird, die durch das Presentation Composition Segment (PCS) in dem Anzeigesatz DSn beschrieben wird, mit DSn.PCS.OBJ[j] bezeichnet wird, wird DECODEDURATION(DSn) durch (i), eine Zeit, die zum Löschen des Fensters erforderlich ist, durch (ii), eine Zeit, die zum Decodieren von DSn.PCS.OBJ[j] erforderlich ist und durch (iii), eine Zeit, die zum Schreiben von DSn.PCS.OBJ[j] in die Grafikebene erforderlich ist, variiert. Dementsprechend ist DECODEDURATION(DSn) die gleiche ungeachtet der Implementierungen der Wiedergabevorrichtungen, so lange wie Rd und Rc vorgegeben werden. Dementsprechend wird die Länge eines jeden der voranstehenden Zeiträume berechnet, um die Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) zum Zeitpunkt des Verfassens zu spezifizieren.
  • Die Berechnung von DECODEDURATION(DSn) wird auf Basis eines Programms durchgeführt, das in 14 dargestellt ist. 15 und die 16A und 16B sind Ablaufpläne, die einen Algorithmus dieses Programms darstellen. Im weiteren Verlauf der Beschreibung wird eine Vorgehensweise des Berechnens von DECODEDURATION(DSn) in Bezug auf diese Zeichnungen beschrieben. In 15 wird eine PLANEINITIALIZATIONTIME-Funktion (EBENENINITIALISIERUNGSZEIT-Funktion) aufgerufen, und es wird ein Rückgabewert zu decode_duration hinzuaddiert (S1). Die PLANEINITIALIZATIONTIME-Funktion (16A) ist eine Funktion zum Berechnen einer Zeit, die für das Initialisieren der Grafikebene erforderlich ist, um die Anzeige für den Datensatz DSn zu erzeugen. In Schritt S1 wird die PLANEINITIALIZATIONTIME-Funktion unter Verwendung des Datensatzes DSn, DSn.PCS.OBJ[0] und decode_duration als Argumente aufgerufen.
  • 16A zeigt eine Vorgehensweise der PLANEINITIALIZATIONTIME-Funktion. In der Zeichnung ist initialize_duration (initialisieren_Dauer) eine Variable, die einen Rückgabewert der PLANEINITIALIZATIONTIME-Funktion anzeigt.
  • In Schritt S2 wird beurteilt, ob ein Feld Zusammensetzungs_Zustand (composition_state) des Presentation Composition Segment (OCS) in dem Anzeigesatz DSn einen Anfang eines Zeitraums (Epoch) zeigt. Wenn das Feld Zusammensetzungs_Zustand (composition_state) einen Anfang eines Zeitraums zeigt (S1: JA, DSn.PCS.composition_state == EPOCH_START in 14), wird eine Zeit, die zum Löschen der Grafikebene erforderlich ist, als initialize_duration (initialisieren_Dauer) eingestellt (S3).
  • Es sei angenommen, dass die Sendegeschwindigkeit Rc von dem Objekt-Puffer zu der Grafikebene 256.000.000 beträgt und dass eine Gesamtgröße der Grafikebene (Video_Breite)·(Video_Höhe) ((vdeo_width)·(video_height)) ist, wie dies voranstehend beschrieben worden ist. Dann ist die Zeit, die zum Löschen der Grafikebene erforderlich ist (in Sekunden) (Video_Breite)·(Video_Höhe)//256.000.000. Dieser Wert wird mit 90.000 Hz multipliziert, um die Genauigkeit der Anzeige-Anfangszeit PTS auszudrücken. Demzufolge ist die Zeit, die zum Löschen der Grafikebene erforderlich ist, 90.000 × (Video_Breite)·(Video_Höhe)//256.000.000. Dies wird zu initialize_duration hinzuaddiert, was als Rückgabewert zurückgegeben wird.
  • Wenn das Feld Zusammensetzungs_Zustand (composition_state) nicht den Anfang des Zeitraums (Epoch) zeigt (S2: NEIN), wird ein Vorgang des Hinzuaddierens einer Zeit, die zum Löschen des Fensters (Window[i]) erforderlich ist, zu initialize_duration für alle Fenster (Window[i]) durchgeführt (S4). Es sei angenommen, dass die Sendegeschwindigkeit Rc von dem Objekt-Puffer zu der Grafikebene 256.000.000 beträgt, wie dies bereits voranstehend erwähnt wurde, und eine Gesamtgröße der Fenster (Windows[i]) ist ΣSIZE(WDS.WIN[i]). Dann ist eine Zeit, die zum Löschen aller Fenster (Windows[i]) (in Sekunden) erforderlich ist ΣSIZE(WDS.WIN[i])//256.000.000. Dieser Wert wird mit 90.000 Hz multipliziert, um die Genauigkeit der Anzeige-Anfangszeit (PTS) auszudrücken. Demzufolge ist die Zeit, die zum Löschen sämtlicher Fenster (Windows[i]) erforderlich ist, 90.000 × ΣSIZE(WDS.WIN[i])//256.000.000. Dieser Wert wird zu initialize_duration (initialisieren_Dauer) hinzuaddiert, was als Rückgabewert zurückgegeben wird. Damit ist die PLANEINITIALIZATIONTIME-Funktion abgeschlossen.
  • Unter erneuerter Bezugnahme auf 15 wird in Schritt S5 beurteilt, ob eine Anzahl von Grafik-Objekten in dem Anzeigesatz DSn 1 oder 2 ist (wenn (DSn.PCS.num_of_objects == 2, wenn (DSn.PCS.num_of_objects == 1, in 14). Wenn die Anzahl von Grafik-Objekten in dem Anzeigesatz DSn 1 ist (S5: = 1), wird eine Wartezeit, um das Decodieren dieses Grafik-Objektes abzuschließen, zu decode_duration (Decodier_Dauer) hinzuaddiert (S6). Die Wartezeit wird durch Aufrufen einer WAIT-Funktion (WARTE-Funktion) (decode_duration += WAIT(DSn, DSn.PCS.OBJ[0], decode_duration) in 14) berechnet. Die WAIT-Funktion wird durch Verwendung des Anzeigesatzes DSn, DSn.PCS.OBJ[0] und decode_duration als Argumente aufgerufen, und wait_duration (Warte_Dauer), was die Wartezeit anzeigt, wird als Rückgabewert zurückgegeben.
  • 16B zeigt eine Vorgehensweise der WAIT-Funktion.
  • In der WAIT-Funktion ist current_duration (aktuelle_Dauer) eine Variable, auf die decode_duration (Decodier_Dauer) eingestellt wird, und object_definition_ready_time (Objekt_Definition_bereit_Zeit) ist eine Variable, die eine Anzeige-Anfangszeit (PTS) des Grafik-Objektes OBJ[i] in dem Anzeigesatz DSn anzeigt.
  • Darüber hinaus ist current_time (aktuelle_Zeit) eine Variable, die eine Summe aus current_duration (aktuelle_Dauer) und einer Decodier-Anfangszeit (DTS) des Presentation Composition Segment (PCS) in dem Anzeigesatz DSn anzeigt. Wenn der Wert von object_definition_ready_time (Objekt_Definition_bereit_Zeit) größer ist als der Wert von current_time (aktuelle_Zeit) (S7: JA, wenn (current_time<object_definition_ready_time) in 14), wird eine Differenz zwischen object_definition_ready_time und current_time auf wait_duration eingestellt, was als ein Rückgabewert zurückgegeben wird (S8, wait_duration += object_definition_ready_time – current_time in 14). Damit ist die WAIT-Funktion abgeschlossen.
  • Unter erneuter Bezugnahme auf 15 wird eine Summe des Rückgabewertes der WAIT-Funktion und einer Zeit, die zum Wiedergeben (Rendering) in einem Fenster erforderlich ist, zu dem das Grafik-Objekt OBJ[0] gehört,
    (90.000·(SIZE(DSn.WDS.WIN[0]))//256.000.000) auf decode_duration (Decodier_Dauer) eingestellt (S9).
  • Die voranstehend beschriebene Vorgehensweise betrifft den Fall, in dem die Anzahl von Grafik-Objekten in dem Anzeigesatz DSn 1 ist. Wenn die Anzahl von Grafik-Objekten 2 ist (S5: = 2), wenn (DSn.PCS.num_of_objects == 2 in 14), wird die WAIT-Funktion unter Verwendung des Anzeigesatzes DSn, DSn.PCS.OBJ.[0], und decode_duration als Argumente aufgerufen, und ein Rückgabewert der WAIT-Funktion wird zu decode_duration hinzuaddiert (S10).
  • In Schritt S11 wird beurteilt, ob das Fenster, zu dem das Grafik-Objekt OBJ[0] gehört, dasselbe ist, wie ein Fenster, zu dem das Grafik-Objekt OBJ[1] gehört (wenn (DSn.PCS.OBJ[0].window_id == DSn.PCS.OBJ[1].window_id in 14). Wenn die Beurteilung bestätigend ausfällt (S11: JA), wird die WAIT-Funktion unter Verwendung des Anzeigesatzes DSn, DSn.PCS.OBJ.[1], und decode_duration als Argumente aufgerufen, und ein Rückgabewert der WAIT-Funktion wird zu decode_duration hinzuaddiert (S12). Darüber hinaus wird eine Zeit, die zum Wiedergeben (Rendering) in dem Fenster, zu dem die Grafik-Objekte OBJ[0] und OBJ[1] gehören, erforderlich ist,
    (90.000·SIZE(DSn.WDS.OBJ[0].window_id)//256.000.000) zu decode_duration (Decodier_Dauer) hinzuaddiert (S13).
  • Wenn die Beurteilung nicht bestätigend ausfällt (S11: NEIN), wird im Gegensatz dazu die Zeit, die zum Wiedergeben (Rendering) in dem Fenster, zu dem das Grafik-Objekt OBJ[0] gehört, erforderlich ist,
    (90.000·SIZE(DSn.WDS.OBJ[0].window_id)//256.000.000) zu decode_duration (Decodier_Dauer) hinzuaddiert (S15). Anschließend wird die WAIT-Funktion unter Verwendung des Anzeigesatzes DSn, DSn.PCS.OBJ.[1], und decode_duration als Argumente aufgerufen, und ein Rückgabewert der WAIT-Funktion wird zu decode_duration hinzuaddiert (S16). Darüber hinaus wird eine Zeit, die zum Wiedergeben (Rendering) in dem Fenster, zu dem das Grafik-Objekt OBJ[1] gehört, erforderlich ist,
    (90.000·SIZE(DSn.WDS.OBJ[1].window_id)//256.000.000) zu decode_duration (Decodier_Dauer) hinzuaddiert (S17). Auf diese Weise wird DECODEDURATION(DSn) berechnet.
  • Im Folgenden wird unter Verwendung von spezifischen Beispielen erläutert, wie eine Anzeige-Anfangszeit (PTS) eines Presentation Composition Segment (PCS) in einem Anzeigesatz DS eingestellt wird.
  • 17A zeigt eine Situation, in der ein Grafik-Objekt OBJ (OBJ1), das einem Object Definition Segment (ODS1) entspricht, zu einem Fenster gehört. Die 17B und 17C sind Zeitablaufdiagramme, die eine Beziehung zwischen den Parametern, die in 14 verwendet werden, darstellt. Jedes dieser Zeitablaufdiagramme besitzt drei Ebenen. Von den drei Ebenen zeigen die Ebene „Graphics Plane access" („Zugang zur Grafikebene") und die Ebene „ODS decode" („ODS decodieren") zwei Prozesse an, die parallel durchgeführt werden, wenn das Object Definition Segment ODS wiedergegeben wird. Der voranstehend erwähnte Algorithmus basiert auf der Annahme, dass diese zwei Prozesse parallel durchgeführt werden.
  • Der Zugang zur Grafikebene ist aus einer Lösch-Periode (1) und einer Schreib-Periode (3) gebildet. Die Lösch-Periode (1) zeigt entweder eine Zeit an, die zum Löschen der gesamten Grafikebene erforderlich ist (90.000 × ((Größe der Grafikebene)//256.000.000)), oder sie zeigt eine Zeit an, die zum Löschen sämtlicher Fenster auf der Grafikebene erforderlich ist (Σ(90.000 × (( Größe des Fensters[i])///256.000.000))).
  • Die Schreib-Periode (3) zeigt eine Zeit an, die zum Wiedergeben (Rendering) in dem gesamten Fenster erforderlich ist (90.000 × (Größe des Fensters)//256.000.000)).
  • Das ODS-Decodieren ist aus einer Decodier-Periode (2) gebildet. Die Decodier-Periode (2) zeigt eine Zeitperiode an, die von einer Decodier-Anfangszeit (DTS) bis zu einer Anzeige-Anfangszeit (PTS) des Object Definition Segment ODS1 reicht.
  • Die Lösch-Periode (1), die Decodier-Periode (2) und die Schreib-Periode (3) können in Abhängigkeit von dem Bereich, der gelöscht werden soll, von der Größe eines Object Definition Segment (ODS), das decodiert werden soll und von der Größe eines Grafik-Objektes, das in die Grafikebene geschrieben werden soll, variieren. In 17 wird im Sinne einer einfachen Erklärung angenommen, dass der Anfang der Decodier-Periode (2) der gleiche ist wie der Anfang der Lösch-Periode (1).
  • 17B zeigt einen Fall, in dem die Decodier-Periode (2) länger ist als die Lösch-Periode (1). In diesem Fall ist decode_duration (Decodier-Dauer) eine Summe aus der Decodier-Periode (29 und der Schreib-Periode (3).
  • 17C zeigt einen Fall, in dem die Lösch-Periode (1) länger ist als die Decodier-Periode (2). In diesem Fall ist decode_duration (Decodier-Dauer) eine Summe aus der Lösch-Periode (1) und der Schreib-Periode (3).
  • Die 18A bis 18C zeigen eine Situation, in der zwei Grafik-Objekte (OBJ1 und OBJ2), die zwei Objekt Definition Segments (ODS1) und (ODS2) entsprechen, zu einem Fenster gehören. In den 18B und 18C zeigt eine Decodier-Periode (2) eine Gesamtzeit an, die zum Decodieren der Object Definition Segments (ODS1) und (ODS2) erforderlich ist. Auf ähnliche Weise zeigt eine Schreib-Periode (3) eine Gesamtzeit an, die zum Schreiben der Grafik-Objekte OBJ1 und OBJ2 in die Grafikebene erforderlich ist. Obgleich die Anzahl der Object Definition Segments (ODS) zwei beträgt, kann decode_duration (Decodier_Dauer) auf die gleiche Weise wie in 17 berechnet werden. Auf ausführlichere Weise ausgedrückt, bedeutet dies, dass, wenn die Decodier-Periode (2) der Object Definition Segments (ODS1) und (ODS2) länger ist als die Lösch-Periode (1), decode_duration (Decodier-Dauer) eine Summe aus der Decodier-Periode (2) und der Schreib-Periode (3) ist, wie dies in 18B dargestellt ist.
  • Wenn die Lösch-Periode (1) länger ist als die Decodier-Periode (2), ist decode_duration (Decodier_Dauer) eine Summe aus der Lösch-Periode (1) und der Schreib-Periode (3), wie dies in 18C dargestellt ist.
  • Die 19A bis 19C zeigen eine Situation, in der das Grafik-Objekt OBJ1 zu einem Fenster (Window1) gehört und das Grafik-Objekt OBJ2 zu einem Fenster (Window2) gehört. Auch wenn in diesem Fall die Lösch-Periode (1) länger ist als die Decodier-Periode (2) der Object Definition Segments ODS1 und ODS2, ist decode_duration (Decodier_Dauer) eine Summe aus der Lösch-Periode (1) und der Schreib-Periode (3). Wenn die Lösch-Periode (1) kürzer ist als die Decodier-Periode (2), kann im Gegensatz dazu das Grafik-Objekt OBJ1 in das Fenster (Window1) geschrieben werden, ohne auf das Ende der Decodier-Periode (2) zu warten. In solch einem Fall ist decode_duration (Decodier_Dauer) nicht einfach eine Summe aus der Decodier-Periode (2) und der Schreib-Periode (3). Angenommen, die Schreib-Periode (31) bezeichnet eine Zeit, die zum Schreiben des Grafik-Objektes OBJ1 in das Fenster (Window1) erforderlich ist, und die Schreib-Periode (32) bezeichnet eine Zeit, die zum Schreiben des Grafik-Objektes OBJ2 in das Fenster (Window2) erforderlich ist. 19B zeigt einen Fall, in dem die Decodier-Periode (2) länger ist als eine Summe aus der Lösch-Periode (1) und der Schreib-Periode (31). In diesem Fall ist decode_duration (Decodier-Dauer) eine Summe aus der Decodier-Periode (2) und der Schreib-Periode (32).
  • 19C zeigt einen Fall, in dem eine Summe aus der Lösch-Periode (1) und der Schreib-Periode (31) länger ist als die Decodier-Periode (2). In diesem Fall ist decode_duration (Decodier_Dauer) eine Summe aus der Lösch-Periode (1), der Schreib-Periode (31) und der Schreib-Periode (32).
  • Die Größe der Grafik-Ebene wird entsprechend einem Player-Modell festgelegt. Darüber hinaus werden die Größen und Anzahlen der Fenster und der Object Definition Segments (ODS) vorab zum Zeitpunkt des Verfassens eingestellt. Demzufolge kann decode_duration (Decodier_Dauer) als eine der Summe aus der Lösch-Periode (1) und der Schreib-Periode (3), der Summe aus der Decodier-Periode (2) und der Schreib-Periode (3), der Summe aus der Decodier-Periode (2) und der Schreib-Periode (32) und der Summe aus der Lösch-Periode (1), der Schreib-Periode (31) und der Schreib-Periode (32) berechnet werden. Durch Einstellen der Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) auf Basis einer auf diese Weise berechneten decode_duration (Decodier_Dauer), können Grafiken mit Bilddaten mit einer hohen Genauigkeit synchronisiert werden. Solch eine genaue Synchronisationssteuerung wird durch das Definieren von Fenstern und das Beschränken von Vorgängen zum Löschen und Wiedergeben (Rendering) innerhalb der Fenster erzielt. Auf diese Weise ist die Einführung des Konzeptes „Fenster" (Window) beim Verfassen von großer Bedeutung.
  • Im weiteren Verlauf der Beschreibung wird erläutert, wie eine Decodier-Anfangszeit (DTS) und eine Anzeige-Anfangszeit (PTS) des Windows Definition Segment (WDS) eingestellt werden. Die Decodier-Anfangszeit (DTS) des Windows Definition Segment (WDS) wird so eingestellt, dass sie die folgende Formel erfüllt: DTS(DSn[WDS]) ≥ DTS(DSn[PCS])
  • Die Anfangs-Anzeigezeit (PTS) des Windows Definition Segment (WDS) spezifiziert einen Fristablauf zum Starten des Schreibens in die Grafikebene. Da das Schreiben in die Grafikebene auf ein Fenster beschränkt ist, kann die Zeit zum Starten des Schreibens in die Grafikebene durch Subtrahieren einer Zeit, die zum Wiedergeben (Rendering) in allen Fenstern erforderlich ist, von der Zeit, die durch die Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) gezeigt wird, bestimmt werden. Es sei angenommen, dass ΣSIZE(WDS.WIN[i]) eine Gesamtgröße der Fenster[i] (Windows[i]) ist. Dann ist die Zeit, die zum Löschen und Wiedergeben (Rendering) in allen Fenstern (Windows[i]) erforderlich ist, ΣSIZE(WDS.WIN[i])//256.000.000. Das Ausdrücken dieser Zeit mit der Genauigkeit von 90.000 KHz ergibt
    90.000 × ΣSIZE(WDS.WIN[i])//256.000.000.
  • Dementsprechend kann die Anfangs-Anzeigezeit (PTS) des Windows Definition Segment (WDS) auf die folgende Weise berechnet werden: OTS(DSn[WDS]) = PTS(DSn[PCS]) – 90.000 × ΣSIZE(WDS.WIN[i])//256.000.000.
  • Da die Anzeige-Anfangszeit (PTS) des Windows Definition Segment (WDS) die Ablauffrist zeigt, kann das Schreiben in die Grafikebene zu einer früheren Zeit als der Zeit gestartet werden, die durch diese Anzeige-Anfangszeit (PTS) gezeigt wird. Dies bedeutet, dass, wenn das Decodieren eines Object Definition Segment (ODS), das zu einem der zwei Fenster gehört, abgeschlossen ist, ein Grafik-Objekt, das durch das Decodieren erhalten wird, unmittelbar in das Fenster geschrieben wird, wie dies in 19 dargestellt ist.
  • Auf diese Weise kann ein Fenster einem gewünschten Punkt auf der Wiedergabe-Zeitachse des AV-Clips zugewiesen werden, wobei die Decodier-Anfangszeit (DTS) und die Anzeige-Anfangszeit (PTS) des Windows Definition Segment (WDS) verwendet werden. Mit dieser Bemerkung ist die Erläuterung zu der Decodier-Anfangszeit (DTS) und der Anzeige-Anfangszeit (PTS) eines jeden des Presentation Composition Segment (PCS) und des Windows Definition Segment (WDS) in dem Anzeigesatz DSn abgeschlossen.
  • Ein Presentation Composition Segment (PCS) in jedem Anzeigesatz DS ist von einer Zeit an aktiv, die durch seine Decodier-Anfangszeit (DTS) angezeigt wird, bis zu einer Zeit, die durch seine Anzeige-Anfangszeit (PTS) angezeigt wird. Dieser Zeitraum, während dem das Presentation Composition Segment (PCS) aktiv ist, wird als eine aktive Periode des Presentation Composition Segment (PCS) in dem Anzeigesatz DS bezeichnet.
  • Im weiteren Verlauf der Beschreibung wird erläutert, wie aktive Perioden von Presentation Composition Segments (PCS) in Anzeigesätzen DS überlappt werden. Wenn ein Grafik-Strom eine Vielzahl von Anzeigesätzen DS enthält, ist es wünschenswert, zwei oder mehrere Anzeigesätze DS parallel zu verarbeiten. Um eine solche Parallelverarbeitung in einer Wiedergabevorrichtung zu ermöglichen, müssen die aktiven Perioden der Presentation Composition Segments (PCS) in den Anzeigesätzen (DS) überlappt werden. Unterdessen wird durch das Nur-Lese-Format der Blue-ray Disc festgelegt, dass das Decodieren mit einer Wiedergabevorrichtung mit einer Konfiguration durchgeführt wird, die so minimal wie gerade notwendig ist.
  • Ein Modell einer Decodiereinrichtung des Nur-Lese-Formats der Blue-ray Disc ist für die Pipeline-Verarbeitung vorgesehen (Pipeline-Decodiermodell). Das Pipeline-Decodiermodell ist in der Lage, ein Grafik-Objekt eines Anzeigesatzes (DS) aus dem Objekt-Puffer in die Grafikebene zu lesen, während gleichzeitig ein Grafik-Objekt des nächsten Anzeigesatzes (DS) decodiert wird und in den Objekt-Puffer geschrieben wird.
  • Wenn eine Wiedergabevorrichtung auf dem Pipeline-Decodiermodell basiert, müssen Eingangsintervalle auf angemessene Weise bestimmt werden. Bei einem Eingangsintervall, auf das sich hierin bezogen wird, handelt es sich um einen Zeitraum von einem Start der Verarbeitung eines Anzeigesatzes zu einem Start der Verarbeitung eines nächsten Anzeigesatzes (DS). Das Verarbeiten eines Anzeigesatzes (DS) das den Objekt-Puffer umfasst, kann in zwei Prozesse unterteilt werden, das heißt, in einen Prozess des Decodierens eines Object Definition Segment (ODS) und des Schreibens eines unkomprimierten Grafik-Objektes in den Objekt-Puffer und in einen Prozess den Lesens des unkomprimierten Grafik-Objektes aus dem Objekt-Puffer und des Schreibens des Grafik-Objektes in die Grafikebene. Da dies so ist, kann eine aktive Periode eines Presentation Composition Segment (PCS) in einem Anzeigesatz (DS) so unterteilt werden, wie dies in 20 dargestellt ist. Wie dies in der Zeichnung dargestellt ist, besteht die Verarbeitung eines Anzeigesatzes DS aus einer Zeit, die zum Decodieren eines Objekt Definition Segment (ODS) und dem Schreiben von Grafiken in den Objekt-Puffer erforderlich ist und aus einer Zeit, die zum Lesen der Grafik aus dem Objekt-Puffer und dem Schreiben der Grafik in die Grafikebene erforderlich ist.
  • Das Pipeline-Decodiermodell ist in der Lage, gleichzeitig Grafiken in den Objekt-Puffer zu schreiben und Grafiken aus dem Objekt-Puffer zu lesen. Dementsprechend können zwei Anzeigesätze (DS) parallel verarbeitet werden, wie dies in 21 dargestellt ist. 21 zeigt, wie zwei Anzeigesätze DS (DSn und DSn + 1) in dem Pipeline-Decodiermodell parallel verarbeitet werden.
  • Wie dies dargestellt ist, werden die Anzeigesätze DSn und DSn + 1 parallel so verarbeitet, dass sich eine Lese-Zeit von dem Objekt-Puffer für den Anzeigesatz DSn mit einer Schreib-Zeit in den Objekt-Puffer für den Anzeigesatz DSn + 1 überlappt.
  • In solch einer Parallelverarbeitung wird ein Grafik-Objekt des Anzeigesatzes DSn + 1 in den Objekt-Puffer geschrieben, nachdem das Schreiben eines Grafik-Objektes des Anzeigesatzes DSn in den Objekt-Puffer abgeschlossen ist.
  • Eine Decodier-Endzeit eines Objekt Definition Segment (ODS) in dem Anzeigesatz DSn wird durch eine Anzeige-Anfangszeit (PTS) eines END-Segments in dem Anzeigesatz DSn gezeigt. Darüber hinaus wird eine frühestmögliche Zeit zum Starten des Decodierens eines Objekt Definition Segment (ODS) in dem Anzeigesatz DSn + 1 durch eine Decodier-Anfangszeit (DTS) eines Presentation Composition Segment (PCS) in dem Anzeigesatz DSn + 1 gezeigt. Dementsprechend werden der Zeitstempel des END-Segments in dem Anzeigesatz DSn und der Zeitstempel des Presentation Composition Segment (PCS) in dem Anzeigesatz DSn + 1 vorab so eingestellt, dass sie die folgende Beziehung erfüllen: PTS(DSn[END] ≤ DTS(DSn + 1[PCS])
  • Durch Einstellen eines Eingangsintervalls auf eine solche Art und Weise können die Anzeigesätze DSn und DSn + 1 in dem Pipeline-Decodiermodell parallel verarbeitet werden.
  • 22 zeigt einen Fall, in dem die aktivem Perioden der Presentation Composition Segments (PCS) in drei Anzeigesätzen (DS0, DS1 und DS2) überlappt werden.
  • Im Folgenden wird erläutert, wie die Zeitstempel der funktionalen Segmente beim Überlappen der Anzeigesätze (DS) auf der Wiedergabe-Zeitachse eingestellt werden. 23 zeigt die Zeitstempel der funktionalen Segmente in dem Anzeigesatz DS0 und DS1, deren Presentation Composition Segments (PCS) überlappende aktive Perioden aufweisen. In der Zeichnung werden die Decodier-Anfangszeiten (DTS) eines Windows Definition Segment (WDS), eines Palette Definition Segment (PDS) und eines oben liegenden Object Definition Segment (ODS1) in dem Anzeigesatz DS0 so eingestellt, dass sie einer Decodier-Anfangszeit (DTS) eines Presentation Composition Segment (PCS) in dem Anzeigesatz DS0 entsprechen. Dies bedeutet, dass das Decodieren der Object Definition Segments (ODS) in dem Anzeigesatz DSn unmittelbar dann startet, wenn eine aktive Periode des Presentation Composition Segment (PCS) in dem Anzeigesatz DS0 beginnt. Dementsprechend wird das Decodieren des Object Definition Segment ODS1 zu einer Zeit gestartet, die durch die Decodier-Anfangszeit (DTS) des Presentation Composition Segment (PCS) gezeigt wird. Unterdessen endet das Decodieren des Object Definition Segment ODSn, das ein letztes Object Definition Segment (ODS) in dem Anzeigesatz DS0 ist, zu einer Zeit, die durch eine Anzeige-Anfangszeit (PTS) eines END-Segment in dem Anzeigesatz DS0 gezeigt wird. Hierbei sollte beachtet werden, dass die Decodier-Anfangszeiten (DTS) des Windows Definition Segment (WDS), eines Palette Definition Segment (PDS) und eines oben liegenden Object Definition Segment (ODS1) in dem Anzeigesatz DS0 auch so eingestellt werden können, dass sie später als die Decodier-Anfangszeit des Presentation Composition Segments (PCS) in dem Anzeigesatz DS0 angeordnet ist.
  • Eine Decodier-Anfangszeit DTS eines Presentation Composition Segments (PCS) in einem Anzeigesatz DS1 zeigt eine Zeit, die der Zeit, die durch die Anzeige-Anfangszeit (PTS) des END-Segment in dem Anzeigesatz DS0 gezeigt wird, entspricht oder später als diese angeordnet ist. Wenn dementsprechend das Decodieren der Object Definition Segments (ODS) in dem Anzeigesatz DS1 zu dem Zeitpunkt gestartet wird, der durch die Decodier-Anfangszeit (DTS) des Presentation Composition Segment (PCS) in dem Anzeigesatz DS1 gezeigt wird, können die Anzeigesätze DS0 und DS1 in dem Pipeline-Decodiermodell parallel verarbeitet werden.
  • Im Folgenden wird der Prozess des Wiedergebens (Rendering) in der Grafikebene in solch einer Pipeline-Verarbeitung analysiert.
  • Wenn die Anzeigesätze DSn und DSn + 1 parallel verarbeitet werden, können ein Grafik-Objekt, das durch das Decodieren für den Anzeigesatz DSn erhalten wird und ein Grafik-Objekt, das durch Decodieren für den Anzeigesatz DSn + 1 erhalten wird, gleichzeitig in die Grafikebene geschrieben werden, wodurch eine Störung bei der Anzeige des Grafik-Objektes des Anzeigesatzes DSn auf dem Bildschirm verursacht wird.
  • Um dies zu verhindern, müssen die Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) in dem Anzeigesatz DSn und die Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) in dem Anzeigesatz DSn + 1 auf die folgende Weise eingestellt werden: PTS(DSn[PCS]) + 90.000 × ΣSIZE(DSn[WDS].Window[i]))//256.000.000 ≤ PTS(DSn + 1)[PCS])wobei ΣSIZE(DSn[WDS].Window[i]) eine Gesamtgröße der Fenster (Windows[i]) ist und 90.000 × ΣSIZE(DSn[WDS].Window[i]))//256.000.000 eine Zeit ist, die zum Wiedergeben (Rendering) in den Fenstern (Windows[i]) erforderlich ist. Durch Verzögern einer Anzeigezeit des Grafik-Objektes des Anzeigesatzes DSn + 1 auf diese Weise, wird das Grafik-Objekt des Anzeigesatzes DSn + 1 davon abgehalten, das Grafik-Objekt des Anzeigesatzes DSn zu überschreiben. 24 zeigt Anzeige-Anfangszeiten (PTS) von Presentation Composition Segments (PCS) in den Anzeigesätzen DS0 bis DS2 entsprechend dieser Formel.
  • Wenn eine Größe eines Fensters 1/4 der Größe der Grafikebene entspricht, ist ein Intervall zwischen PTS(DSn[PCS]) und PTS(DSn + 1 [PCS]) äquivalent mit einer Rahmen-Periode des Video-Stroms.
  • Im Folgenden wird eine Beschränkung hinsichtlich eines Überlappens von aktiven Perioden von Presentation Composition Segments (PCS) in Anzeigesätzen DS erläutert. Wenn ein Grafik-Objekt, das zu einem Anzeigesatz DS gehört, dieselbe Objekt_ID (object_id) wie ein Grafik-Objekt aufweist, das zu einem unmittelbar vorangehenden Anzeigesatz DS gehört, um eine Aktualisierung zu bewirken, können aktive Perioden von Presentation Composition Segments (PCS) in diesen Anzeigesätzen DS nicht überlappt werden. Es sei angenommen, dass der Anzeigesatz DS0 ein Object Definition Segment (ODS) enthält, das eine Objekt_ID = 1 (object_id = 1) aufweist, und dass der Anzeigesatz DS1 ein Object Definition Segment (ODS) enthält, das dieselbe Objekt_ID = 1 (object_id = 1) aufweist.
  • Wenn aktive Perioden der Presentation Composition Segments (PCS) in solchen Anzeigesätzen DS0 und DS1 überlappen, wird das Object Definition Segment (ODS) in dem Anzeigesatz DS1 in die Wiedergabevorrichtung 200 geladen und vor dem Ende des Anzeigesatzes DS0 decodiert. In diesem Fall wird ein Grafik-Objekt des Anzeigesatzes DS0 durch ein Grafik-Objekt des Anzeigesatzes DS1 überschrieben. Dadurch wird das Grafik-Objekt des Anzeigesatzes DS1 und nicht das Grafik-Objekt des Anzeigesatzes DS0 veranlasst, auf dem Bildschirm zu erscheinen. Um dies zu verhindern, ist das Überlappen von aktiven Perioden von Presentation Composition Segments (PCS) in den Anzeigesätzen (DS) in dem Fall einer Grafik-Aktualisierung untersagt.
  • 25A zeigt einen Fall, in dem zwei Anzeigesätze (DS) in einer Pipeline verarbeitet werden können, wohingegen 25B einen Fall zeigt, in dem zwei Anzeigesätze (DS) nicht in einer Pipeline verarbeitet werden können. In diesen Zeichnungen hat der Anzeigesatz DS0 die Object Definition Segments ODSA und ODSB, wohingegen der Anzeigesatz DS1 die Object Definition Segments ODSC und ODSD hat. Wenn die Object Definition Segments ODSC und ODSD in dem Anzeigesatz DS1 unterschiedliche Objekt_IDs (object_ids) verglichen mit dem ODSA und dem ODSB in dem Anzeigesatz DS0 haben, können die aktiven Perioden der Presentation Composition Segments (PCS) in dem Anzeigesatz DS0 und in dem Anzeigesatz DS1 überlappt werden, wie dies in 25A dargestellt ist. Wenn die Object Definition Segments ODSC und ODSD in dem Anzeigesatz DS1 dieselbe Objekt_ID (object_id) wie die Object Definition Segments ODSA und ODSB in dem Anzeigesatz DS0 haben, können im Gegensatz da zu die aktiven Perioden der Presentation Composition Segments (PCS) in dem Anzeigesatz DS0 und in dem Anzeigesatz DS1 nicht überlappt werden, wie dies in 25B dargestellt ist.
  • Diese Beschränkung kann mit Hilfe des folgenden Verfahrens der „Übertragungsbeschleunigung" überwunden werden. Wenn beispielsweise der Anzeigesatz DS0 ein Object Definition Segment ODSA hat, das eine Objekt_ID = 1 (object_id = 1) aufweist, und der Anzeigesatz DS1 ein Object Definition Segment ODSC zum Aktualisieren eines Grafik-Objektes des Object Definition Segment ODSA in dem Anzeigesatz DS0 enthält, wird dem Object Definition Segment ODSC in dem Anzeigesatz DS1 anfänglich eine unterschiedliche Objekt_ID (object_id), die eine andere als die Objekt_ID = 1 ist, gegeben. Erst nachdem ein Grafik-Objekt des Object Definition Segment ODSC in dem Anzeigesatz DS1 in dem Objekt-Puffer gespeichert worden ist, wird die Objekt_ID (object_id) des Object Definition Segment ODSC auf die Objekt_ID = 1 (object_id = 1) geändert, um das Grafik-Objekt des Object Definition Segment ODSA in dem Anzeigesatz DS0 zu überschreiben. In Übereinstimmung mit diesem Verfahren kann die voranstehend beschriebene Beschränkung überwunden werden. Dies bedeutet, dass ein Grafik-Objekt für die Aktualisierung eines vorangehenden Grafik-Objektes in dem Objekt-Puffer in den Objekt-Puffer geladen werden kann, ohne dass dabei darauf gewartet werden muss, dass das vorangehende Grafik-Objekt angezeigt wird.
  • Da das voranstehend beschriebene Verfahren für Grafik-Aktualisierungen verwendet werden kann, kann ein Anzeigesatz DS oftmals nicht nur Objekt Definition Segments (ODS) tragen, auf die durch seine eigenen Presentation Composition Segments (PCS) verwiesen wird, sondern auch Object Definition Segments (ODS) tragen, auf die durch ein Presentation Composition Segment (PCS) eines darauffolgenden Anzeigesatzes (DS) verwiesen wird. In solch einem Fall ist es notwendig, der Wiedergabevorrichtung 200 anzuzeigen, welche Objekt Definition Segments (ODS) zu dem Anzeigesatz DS gehören. Um dies zu tun, wird ein END-Segment hinter alle Object Definition Segments (ODS), die in dem Anzeigesatz selbst getragen werden, platziert. Die Wiedergabevorrichtung 200 zieht das END-Segment in dem Anzeigesatz (DS) heran, um das Ende der Objekt Definition Segments (ODS) zu erfassen, die zu dem Anzeigesatz (DS) gehören.
  • 26 zeigt ein Ende eines Sendens von Object Definition Segments (ODS), das durch ein END-Segment angezeigt wird. In der Zeichnung zeigt die erste Ebene funktionale Segmente, die zu einem Anzeigesatz (DS) gehören, und die zweite Ebene zeigt eine Anordnung dieser funktionalen Segmente auf der BD-ROM (Blue-ray disc) 100. Die funktionalen Segmente, wie beispielsweise ein Presentation Composition Segment (PCS), ein Windows Definition Segment (WDS), ein Palette Definition Segment (PDS) und Object Definition Segments (ODS) werden in TS-Pakete umgewandelt und zusammen mit einem Video-Strom, der gleichermaßen in TS-Pakete umgewandelt wird, auf der BD-ROM 100 gespeichert.
  • Einem jedem der TS-Pakete, die den funktionalen Segmenten entsprechen und den TS-Paketen, die dem Video-Strom entsprechen, werden Zeitstempel, die ATS genannt werden, sowie ein Presentation Composition Segment (PCS) zugewiesen. Die TS-Pakete, die den funktionalen Segmenten entsprechen, und die TS-Pakete, die dem Video-Strom entsprechen, werden so auf der BD-ROM 100 angeordnet, dass TS-Pakete, die dieselben Zeitstempel aufweisen, aneinander angrenzend angeordnet sind.
  • Dies bedeutet, dass das Presentation Composition Segment (PCS), das Windows Definition Segment (WDS) und das Palette Definition Segment (PDS), die zu dem Anzeigesatz DS gehören, auf der BD-ROM 100 nicht aufeinanderfolgend angeordnet sind, da die TS-Pakete, die dem Video-Strom entsprechen (in der Zeichnung durch den Buchstaben V angezeigt) dazwischen angeordnet sind. Demzufolge erscheinen die funktionalen Segmente in Intervallen auf der BD-ROM 100. Wenn die TS-Pakete, die den funktionalen Segmenten entsprechen, in Intervallen auf der BD-ROM 100 erscheinen, erweist es sich als schwierig, sofort zu erfassen, bis zu welchen TS-Paketen sie zu dem Anzeigesatz DS gehören. Darüber hinaus kann der Anzeigesatz (DS) auch Object Definition Segments (ODS) enthalten, auf die durch das Presentation Composition Segment (PCS) des Anzeigesatzes DS nicht verwiesen wird, wodurch die Erfassung noch schwieriger wird. In dieser Ausführungsform wird jedoch ein END-Segment hinter dem letzten Object Definition Segment (ODS), das zu dem Anzeigesatz (DS) gehört, bereitgestellt. Dementsprechend ist es, selbst wenn die funktionalen Segmente, die zu dem Anzeigesatz (DS) gehören, in Intervallen erscheinen, leicht, zu erfassen, bis zu welchem Object Definition Segments (ODS) sie zu dem Anzeigesatz (DS) gehören.
  • 27 zeigt eine Beziehung zwischen dem Überlappen der aktiven Perioden und der Zuweisung der Objekt_ID (object_id). 27A zeigt vier Anzeigesätze DS (DS0, DS1, DS2 und DS3). Ein Presentation Composition Segment (PCS) des Anzeigesatzes DS0 beschreibt nicht die Anzeige irgendeines Grafik-Objektes. Ein Presentation Composition Segment (PCS) des Anzeigesatzes DS1 beschreibt die Anzeige von Objekten X und Y auf dem Bildschirm, ein Presentation Composition Segment (PCS) des Anzeigesatzes DS2 beschreibt die Anzeige der Objekte A, X und C auf dem Bildschirm, und ein Presentation Composition Segment (PCS) des Anzeigesatzes DS3 beschreibt die Anzeige des Objektes D auf dem Bildschirm.
  • 27B zeigt Objekt Definition Segments (ODS), die zu den Anzeigesätzen DS gehören, sowie aktive Perioden des Presentation Composition Segment (PCS) in den Anzeigesätzen (DS). Der Anzeigesatz DS0 enthält ein Object Definition Segment (ODS) des Objektes X. Der Anzeigesatz DS1 enthält ein Object Definition Segment (ODS) des Objektes Y. Der Anzeigesatz DS2 enthält ein Object Definition Segment (ODS) der Objekte A, B und C. Der Anzeigesatz DS3 enthält ein Objekt Definition Segment (ODS) des Objektes D. Eine Inkonsistenz zwischen den angezeigten Grafik-Objekten und gesendeten Objekt Definition Segments (ODS) in jedem der vier Anzeigesätze DS ist auf die voranstehend beschriebene Übertragungsbeschleunigung zurückzuführen. Die aktiven Perioden der Presentation Composition Segments (PCS) in diesen Anzeigesätzen DS werden teilweise überlappt. 27C zeigt eine Anordnung der Grafik-Objekte in dem Objekt-Puffer.
  • Hierbei sei angenommen, dass die Objekt_IDs (object_ids) 0, 1, 2, 3 und 4 jeweils den Objekten X, Y, A, B und C zugewiesen werden. Weil dies der Fall ist, kann dem Objekt D, das zu dem Anzeigesatz DS3 gehört, eine beliebige der Objekt_IDs (object_ids) 5, 3 und 0 zugewiesen werden.
  • Die Objekt_ID 5 (object_id 5) ist möglich, da diese Objekt_ID (object_id) in dem Anzeigesatz DS0 bis zu dem Anzeigesatz DS2 nicht zugewiesen ist.
  • Die Objekt_ID 3 (object_id 3) ist möglich, da das Objekt B, das diese Objekt_ID (object_id) besitzt, in dem Anzeigesatz DS2 enthalten ist, jedoch nicht durch ein Presentation Composition Segment (PCS) irgendeines Anzeigesatzes DS herangezogen wird.
  • Die Objekt_ID 0 ist möglich, da das Objekt X, das diese Objekt_ID (object_id) besitzt, in dem Anzeigesatz DS1 angezeigt wird. So lange wie die aktive Periode des Presentation Composition Segment (PCS) in dem Anzeigesatz DS1 bereits geendet hat, wird ein Problem des Anzeigens von Objekt D anstelle des Objektes X nicht auftreten.
  • Im Gegensatz dazu ist es möglich, dem Objekt D eine beliebige der Objekt_IDs (object_ids) 1, 2 und 4 zuzuweisen. Wenn eine beliebige solcher Objekt_IDs (object_ids) dem Objekt D zugewiesen wird, wird schließlich das Objekt D anstelle irgendeines der drei Objekte A, Y und C, die in dem Anzeigesatz DS2 angezeigt werden sollten, angezeigt.
  • Auf diese Weise kann dem Objekt D dieselbe Objekt_ID (object_id) zugewiesen werden, wie einem Objekt, das in einer aktiven Periode eines Presentation Composition Segment (PCS) in einem Anzeigesatz (DS), die mit der aktiven Periode des Presentation Composition Segment (PCS) in dem Anzeigesatz DS3 überlappt, nicht herangezogen wird, oder wie einem Objekt, das durch ein Presentation Composition Segment (PCS) eines Anzeigesatzes (DS), deren aktive Periode bereits geendet hat, herangezogen wird.
  • Das Überlappen von aktiven Perioden von Presentation Composition Segments (PCS) in den Anzeigesätzen DS und DSn + 1 basiert auf einer Vorbedingung, dass die Anzeigesätze DSn und DSn + 1 zu demselben Zeitraum (Epoch) in dem Grafik-Strom gehören. Wenn der Anzeigesatz DSn und der Anzeigesatz DSn + 1 zu unterschiedlichen Zeiträumen (Epochs) gehören, können die aktiven Perioden der Presentation Composition Segments (PCS) in dem Anzeigesatz DSn und DSn + 1 nicht überlappt werden. Dies rührt daher, dass, wenn das Presentation Composition Segment (PCS) oder das Object Definition Segment (ODS) des Anzeigesatzes DSn + 1 geladen wird, bevor die aktive Periode des Presentation Composition Segment (PCS) in dem Anzeigesatz DSn endet, es unmöglich wird, den Objekt-Puffer und die Grafikebene am Ende der aktiven Periode des Presentation Composition Segment (PCS) in dem Anzeigesatz DSn zu flushen.
  • Wenn der Anzeigesatz DSn ein letzter Anzeigesatz DS des Zeitraums m (Epochm) ist, (im Folgenden „EPOCHm DSlast[PCS]"), und wenn der Anzeigesatz DSn + 1 ein oben liegender Anzeigesatz DS von EPOCHm + 1 ist (im Folgenden „EPOCHm + 1 DSfirst[PCS]"), müssen die Anzeige-Anfangszeiten (PTS) der Presentation Composition Segments (PCS) des Anzeigesatzes DSn und des Anzeigesatzes DSn + 1 die folgende Formel erfüllen: PTS(EPOCHm DSlast[PCS]) ≤ DTS(EPOCHm + 1 DSfirst[PCS]
  • Darüber hinaus basiert das Überlappen der aktiven Perioden der Presentation Composition Segments (PCS) in dem Anzeigesatz DSn und in dem Anzeigesatz DSn + 1 auf der Vorbedingung, dass der Grafik-Strom ein Darstellungs-Grafik-Strom ist. Es gibt zwei Typen von Grafik-Strömen: einen Darstellungs-Grafik-Strom; und einen Interaktiven Grafik-Strom, der hauptsächlich zum Erzeugen von interaktiven Anzeigen vorgesehen ist.
  • Wenn der Anzeigesatz DSn und der Anzeigesatz DSn + 1 zu einem Interaktiven Grafik-Strom gehören, ist das Überlappen des Anzeigesatzes DSn und des Anzeigesatzes DSn + 1 untersagt. In einem Interaktiven Grafik-Strom wird ein Segment, das Steuerinformationen trägt, als ein Interactive Composition Segment (ICS) bezeichnet. Da dies so ist, müssen die Zeitinformationen des Anzeigesatzes DSn und des Anzeigesatzes DSn + 1 so eingestellt werden, dass die aktive Periode eines Interactive Composition Segment (ICS) in dem Anzeigesatz DSn + 1 unmittelbar nach der aktiven Periode eines Interactive Composition Segment (ICS) in dem Anzeigesatz DSn startet. Das Ende der aktiven Periode des Interactive Composition Segment (ICS) in dem Anzeigesatz DSn wird durch einen Darstellungs-Zeitstempel (PTS) des Interactive Composition Segment (ICS) in dem Anzeigesatz DSn angezeigt, und der Beginn der aktiven Periode Interactive Composition Segment (ICS) in dem Anzeigesatz DSn + 1 wird durch einen Decodier-Zeitstempel (DTS) des Interactive Composition Segment (ICS) in dem Anzeigesatz DSn + 1 angezeigt. Hierbei müssen PTS(DSn[ICS]) und DTS(DSn + 1)[ICS]) die folgende Formel erfüllen: PTS(DSn[ICS]) ≤ DTS(DSn + 1)[ICS])
  • Mit dieser Bemerkung ist die Erläuterung zum Überlappen der aktiven Perioden von Presentation Composition Segments (PCS) in Anzeigesätzen DS abgeschlossen.
  • Hierbei ist zu beachten, dass die Datenstrukturen der Anzeigesätze DS (PCS, WDS, PDS und ODS), die voranstehend beschrieben worden sind, Beispiele von Klassenstrukturen sind, die in einer Programmiersprache geschrieben sind. Der Verfasser schreibt die Klassenstrukturen entsprechend der in dem Nur-Lese-Format der Blue-ray Disc definierten Syntax, um diese Datenstrukturen auf der BD-ROM 100 zu erzeugen.
  • Mit dieser Bemerkung ist die Erläuterung zu dem Aufzeichnungsmedium in Übereinstimmung mit der ersten Ausführungsform der vorliegenden Erfindung abgeschlossen. Im Folgenden wird eine Wiedergabevorrichtung in Übereinstimmung mit der ersten Ausführungsform der vorliegenden Erfindung beschrieben. 28 zeigt eine interne Konfiguration der Wiedergabevorrichtung 200. Die Wiedergabevorrichtung 200 wird auf Basis dieser internen Konfiguration hergestellt. Die Wiedergabevorrichtung 200 ist im Groben aus drei Teilen gebildet, und zwar aus einem LSI-System (mit integrierter Schaltung), einer Antriebsvorrichtung und einem Mikrocomputersystem. Die Wiedergabevorrichtung 200 kann durch Zusammenbauen dieser Teile auf einem Gehäuse und einem Substrat der Vorrichtung hergestellt werden. Das LSI-System ist eine integrierte Schaltung, die verschiedene Verarbeitungseinheiten zum Erzielen der Funktionen der Wiedergabevorrichtung 200 enthält. Die Wiedergabevorrichtung 200 enthält ein BD-Laufwerk 1, einen Lese-Puffer 2, ein PID-(Packet Identifier)Filter 3, Transport-Puffer 4a, 4b und 4c, eine Peripherieschaltung 4d, eine Video-Decodiereinrichtung 5, eine Video-Ebene 6, eine Audio-Decodiereinrichtung 7, eine Grafikebene 8, eine CLUT-(Farbzuordnungstabellen)Einheit 9, eine Addiereinrichtung 10 und eine Grafik-Decodiereinrichtung 12. Die Grafik-Decodiereinrichtung 12 enthält einen Puffer für codierte Daten 13, eine Peripherieschaltung 13a, einen Prozessor für einen Grafik-Strom 14, einen Objekt-Puffer 15, einen Zusammensetzungs-Puffer 16 und einen Grafik-Controller 17.
  • Das BD-Laufwerk 1 führt Laden, Lesen und Auswerfen der BD-ROM 100 durch. Das BD-Laufwerk 1 greift auf die BD-ROM (Blue-ray Disc) 100 zu.
  • Der Lese-Puffer 2 ist ein FIFO-(First-In-First-Out)Speicher. Dementsprechend werden die TS-Pakete, die von der BD-ROM 100 gelesen werden, in derselben Reihenfolge, in der sie dort eintreffen, aus dem Lese-Puffer 2 entfernt.
  • Das PID-Filter 3 führt Filterung an den TS-Paketen, die von dem Lese-Puffer 2 ausgegeben werden, durch. Auf ausführlichere Weise ausgedrückt, bedeutet dies, dass das PID-Filter 3 nur die TS-Pakete zu den Transport-Puffern 4a, 4b und 4c hindurchlässt, die vorgegebene Paketidentifizierer (PID) aufweisen. Es findet keine Zwischenspeicherung innerhalb des PID-Filters 3 statt. Dementsprechend werden die TS-Pakete, die in das PID-Filter 3 eintreten, sofort in die Transport-Puffer 4a, 4b und 4c geschrieben.
  • Die Transport-Puffer 4a, 4b und 4c sind FIFO-Speicher zum Speichern der TS-Pakete, die von dem PID-Filter 3 ausgegeben werden. Eine Geschwindigkeit, mit der ein TS-Paket aus dem Transport-Puffer 4a ausgelesen wird, wird als Sendegeschwindigkeit Rx bezeichnet.
  • Die Peripherieschaltung 4d hat eine festverdrahtete Logik zum Umwandeln von TS-Paketen, die aus dem Transport-Puffer 4a ausgelesen werden, in funktionale Segmente. Die funktionalen Segmente werden anschließend in dem Puffer für codierte Daten 13 gespeichert.
  • Die Video-Decodiereinrichtung 5 decodiert TS-Pakete, die von dem PID-Filter 3 ausgegeben werden, um unkomprimierte Bilder zu erhalten und schreibt diese in die Video-Ebene 6.
  • Die Video-Ebene 6 ist ein Ebenen-Speicher für ein sich bewegendes Bild.
  • Die Audio-Decodiereinrichtung 7 decodiert TS-Pakete, die von dem PID-Filter 3 ausgegeben werden und gibt unkomprimierte Audiodaten aus.
  • Die Grafikebene 8 ist ein Ebenen-Speicher, der einen Speicherbereich eines Bildschirms hat, und er ist in der Lage, unkomprimierte Grafiken eines Bildschirms zu speichern.
  • Die CLUT-Einheit 9 (Farbzuordnungstabellen-Einheit) wandelt Indexfarben der unkomprimierten Grafiken in der Grafikebene 8 auf Basis der Y-, Cr- und Cb-Werte, die in einem Palette Definition Segment (PDS) dargestellt sind, um.
  • Die Addiereinrichtung 10 multipliziert die unkomprimierten Grafiken, die durch die CLUT-Einheit 9 umgewandelt wurden, mit einem T-Wert (Transparenz), der in dem Palette Definition Segment (PDS) gezeigt wird. Die Addiereinrichtung 10 führt anschließend Addition für die entsprechenden Pixel in den resultierenden unkomprimierten Grafiken und den unkomprimierten Bilddaten in der Video-Ebene 6 durch und gibt ein resultierendes Bild aus.
  • Die Grafik-Decodiereinrichtung 12 decodiert einen Grafik-Strom, um unkomprimierte Grafiken zu erhalten und schreibt die unkomprimierten Grafiken als Grafik-Objekte in die Grafikebene 8. Als ein Ergebnis des Decodierens des Grafik-Stroms erscheinen Untertitel und Menüs auf dem Bildschirm.
  • Diese Grafik-Decodiereinrichtung 12 führt Pipeline-Verarbeitung durch Lesen eines Grafik-Objektes, das zu einem Anzeigesatz DS gehört, aus dem Objekt-Puffer 15 während des gleichzeitigen Schreibens eines Grafik-Objektes, das zu einem Anzeigesatz DSnm + 1 gehört, in den Objekt-Puffer 15 durch.
  • Die Grafik-Decodiereinrichtung 12 enthält den Puffer für codierte Daten 13, die Peripherieschaltung 13a, den Prozessor für einen Grafik-Strom 14, den Objekt-Puffer 15, den Zusammensetzungs-Puffer 16 und den Grafik-Controller 17.
  • Der Puffer für codierte Daten 13 wird zum Speichern von funktionalen Segmenten zusammen mit den Decodier-Zeitstempeln (DTS) und den Darstellungs-Zeitstempeln (PTS) verwendet. Solche funktionalen Segmente werden durch Entfernen eines TS-Paket-Headers und eines PES-Paket-Headers aus einem jeden TS-Paket, das in dem Transport-Puffer 4a gespeichert ist, und durch Anordnen von verbleibenden Nutzdaten (payloads) in einer Sequenz erhalten. Die Decodier-Zeitstempel DTS und die Darstellungs-Zeitstempel PTS, die in den entfernten TS-Paket-Headern und den PES-Paket-Headern enthalten sind, werden in Übereinstimmung mit den funktionalen Segmenten in dem Puffer für codierte Daten 13 gespeichert.
  • Die Peripherieschaltung 13a besitzt eine festverdrahtete Logik zum Senden von Daten von dem Puffer für codierte Daten 13 zu dem Prozessor für einen Grafik-Strom 14 und zum Senden von Daten von dem Puffer für codierte Daten 13 zu dem Zusammensetzungs-Puffer 16. Auf ausführlichere Weise ausgedrückt, bedeutet dies, dass, wenn die aktuelle Zeit eine Decodier-Anfangszeit DTS eines Object Definition Segments (ODS) erreicht, die Peripherieschaltung 13a das Object Definition Segment (ODS) von dem Puffer für codierte Daten 13 zu dem Prozessor für einen Grafik-Strom 14 sendet. Wenn darüber hinaus die aktuelle Zeit eine Decodier-Anfangszeit DTS eines Presentation Composition Segment (PCS) oder eines Palette Definition Segment (PDS) erreicht, sendet die Peripherieschaltung 13a das Presentation Composition Segment (PCS) oder das Palette Definition Segment (PDS) von dem Puffer für codierte Daten 13 zu dem Zusammensetzungs-Puffer 16.
  • Der Prozessor für einen Grafik-Strom 14 decodiert das Object Definition Segment (ODS), um unkomprimierte Grafiken mit Indexfarben zu erhalten und sendet die unkomprimierten Grafiken als ein Grafik-Objekt an den Objekt-Puffer 15. Das Decodieren durch den Prozessor für einen Grafik-Strom 14 geschieht momentan, und das Grafik-Objekt, das durch das Decodieren erhalten wird, wird vorrübergehend in dem Prozessor für einen Grafik-Strom 14 gespeichert. Obgleich das Decodieren durch den Prozessor für einen Grafik-Strom 14 momentan ist, ist das Senden des Grafik-Objektes von dem Prozessor für einen Grafik-Strom 14 zu dem Objekt-Puffer 15 nicht momentan. Dies rührt daher, dass das Senden zu dem Objekt-Puffer 15 bei einer Sendegeschwindigkeit von 128 Mbps in dem Player-Modell des Nur-Lese-Formats der Blue-ray Disc durchgeführt wird. Ein Ende des Sendens aller Grafik-Objekte, die zu einem Anzeigesatz (DS) gehören, zu dem Objekt-Puffer 15, wird durch eine Anzeige-Anfangszeit (PTS) eines END-Segments in dem Anzeigesatz (DS) gezeigt. Dementsprechend wird die Verarbeitung des nächsten Anzeigesatzes (DS) so lange nicht gestartet, bis die Zeit, die durch die Anzeige-Anfangszeit (PTS) des END-Segments, gezeigt wird, herangekommen ist. Das Senden eines Grafik-Objektes, das durch Decodieren eines jeden Object Definition Segment (ODS) erhalten wird, zu dem Objekt-Puffer 15, startet zu einer Zeit, die durch die Decodier-Anfangszeit (DTS) des Object Definition Segment (ODS) gezeigt wird und endet zu einer Zeit, die durch ein Anzeige-Anfangszeit (PTS) eines Objekt Definition Segment (ODS) gezeigt wird.
  • Wenn ein Grafik-Objekt eines Anzeigesatzes DSn und ein Grafik-Objekt eines Anzeigesatzes DSn + 1 unterschiedliche Objekt_IDs (object_ids) haben, schreibt der Prozessor für einen Grafik-Strom 14 die zwei Grafik-Objekte in unterschiedliche Speicherbereiche des Objekt-Puffers 15. Dadurch wird eine Pipeline-Darstellung der Grafik-Objekte ermöglicht, ohne dass dabei das Grafik-Objekt des Anzeigesatzes DSn durch das Grafik-Objekt des Anzeigesatzes DSn + 1 überschrieben wird. Wenn das Grafik-Objekt des Anzeigesatzes DSn und das Grafik-Objekt des Anzeigesatzes DSn + 1 dieselbe Objekt_ID (object_id) haben, schreibt der Prozessor für einen Grafik-Strom 14 im Gegensatz dazu das Grafik-Objekt des Anzeigesatzes DSn + 1 in einen Speicherbereich in dem Objekt-Puffer 15, in dem das Grafik-Objekt des Anzeigesatzes DSn gespeichert ist, so dass das Grafik-Objekt des Anzeigesatzes DSn überschrieben wird. In diesem Fall wird keine Pipeline-Verarbeitung durchgeführt. Darüber hinaus kann ein Anzeigesatz (DS) Object Definition Segments (ODS) enthalten, auf die durch ein Presentation Composition Segment (OCS) des Anzeigesatzes (DS) verwiesen wird, und Object Definition Segments (ODS) enthalten, auf die nicht durch das Presentation Composition Segment (PCS) verwiesen wird. Der Prozessor für einen Grafik-Strom 14 decodiert sequenziell nicht nur die Objekt Definition Segments (ODS), auf die durch das Presentation Composition Segment (PCS) verwiesen werden, sondern auch die Object Definition Segments (ODS), auf die nicht durch das Presentation Composition Segment (PCS) verwiesen wird und speichert die durch das Decodieren erhaltenen Grafiken in dem Objekt-Puffer 15.
  • Der Objekt-Puffer 15 entspricht einem Pixelpuffer in ETSI EN 300 743. Grafik-Objekte, die durch den Prozessor für einen Grafik-Strom 14 decodiert werden, werden in dem Objekt-Puffer 15 gespeichert. Eine Größe des Objekt-Puffers 15 muss doppelt so groß oder vier mal so groß sein wie die Größe der Grafikebene 8. Dies rührt daher, dass der Objekt-Puffer 15 in der Lage sein muss, zwei oder vier mal so viele Grafiken als wie die Grafikebene 8 zu speichern, um Bildschirmblättern (Scrolling) zu erzielen.
  • Der Zusammensetzungs-Puffer 16 wird zum Speichern eines Presentation Composition Segment (PCS) und eines Palette Definition Segment (PDS) verwendet. Wenn aktive Perioden von Presentation Composition Segments (PCS) in dem Anzeigesatz DSn und in dem Anzeigesatz DSn + 1 überlappen, speichert der Zusammensetzungs-Puffer 16 die Presentation Composition Segment (PCS) von sowohl dem Anzeigesatz DSn als auch dem Anzeigesatz DSn + 1.
  • Der Grafik-Controller 17 decodiert die Presentation Composition Segments (PCS) in dem Zusammensetzungs-Puffer 16. Auf Basis eines Decodierergebnisses schreibt der Grafik-Controller 17 ein Grafik-Objekt des Anzeigesatzes DSn + 1 in den Objekt-Puffer 15, während er ein Grafik-Objekt des Anzeigesatzes DSn aus dem Objekt-Puffer 15 liest und dieses zur Anzeige darstellt. Die Darstellung durch den Grafik-Controller 17 wird zu einer Zeit durchgeführt, die durch eine Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) in dem Anzeigesatz DSn gezeigt wird. Ein Intervall zwischen der Darstellung des Grafik-Objektes des Anzeigesatzes DSn und der Darstellung des Grafik-Objektes des Anzeigesatzes DSn + 1 durch den Grafik-Controller 17 ist wie voranstehend beschrieben.
  • Empfohlene Sendegeschwindigkeiten und Puffergrößen zum Realisieren des PID-Filters 3, der Transport-Puffer 4a, 4b und 4c, der Grafikebene 8, der CLUT-Einheit 9, des Puffers für codierte Daten 13, des Prozessors für einen Grafik-Strom 14, des Objekt-Puffers 15, des Zusammensetzungs-Puffers 16 und des Grafik-Controllers 17 werden im folgenden Verlauf der Beschreibung erwähnt. 29 zeigt Sendegeschwindigkeiten Rx, Rc und Rd sowie Größen der Grafikebene 8, des Transport-Puffers 4a, des Puffers für codierte Daten 13 und des Objekt-Puffers 15.
  • Die Sendegeschwindigkeit Rc (Pixel-Zusammensetzungs-Geschwindigkeit) von dem Objekt-Puffer 15 zu der Grafikebene 8 ist eine höchste Sendegeschwindigkeit in der Wiedergabevorrichtung 200 und wird anhand einer Fenstergröße und einer Bildwechselfrequenz als 256 Mbps (= 500 Kbytes × 29,97 × 2) berechnet.
  • Die Sendegeschwindigkeit Rd (Pixel-Decodierrate) von dem Prozessor für einen Grafik-Strom 14 zu dem Objekt-Puffer 15 muss, im Gegensatz zu Rc, nicht mit der Bildwechselfrequenz übereinstimmen und kann 1/2 oder 1/4 von Rc betragen. Dementsprechend ist die Sendegeschwindigkeit Rd 128 Mbps oder 64 Mbps.
  • Die Sendegeschwindigkeit Rx (Leckrate des Transport-Puffers) von dem Transport-Puffer 4a zu dem Puffer für codierte Daten 13 ist eine Sendegeschwindigkeit von Object Definition Segments (ODS) in einem komprimierten Zustand. Dementsprechend kann eine Sendegeschwindigkeit Rx durch Multiplexen von Rd mit einer Kompressionsgeschwindigkeit von Object Definition Segments (ODS) berechnet werden. Wenn beispielsweise die Kompressionsgeschwindigkeit bei 25% liegt, beträgt die Sendegeschwindigkeit Rx 16 Mbps (= 64 Mbps × 25%).
  • Diese Sendegeschwindigkeiten und Puffergrößen sind lediglich als Mindeststandards aufgezeigt, und Sendegeschwindigkeiten und Puffergrößen, die größer sind, als jene, die in 29 dargestellt sind, sind gleichermaßen anwendbar.
  • In der Wiedergabevorrichtung 200 mit der voranstehend beschriebenen Konfiguration führen die Konfigurationselemente Verarbeitung in einer Pipeline durch.
  • 30 ist ein Zeitablaufdiagramm, das eine in der Wiedergabevorrichtung 200 durchgeführte Pipeline-Verarbeitung darstellt. In der Zeichnung zeigt die fünfte Ebene einen Anzeigesatz DS auf der BD-ROM 100. Die vierte Ebene zeigt Schreib-Perioden eines Presentation Composition Segment (PCS), eines Windows Definition Segment (WDS), eines Palette Definition Segment (PDS), von Object Definition Segments (ODS) und eines END-Segments in den Puffer für codierte Daten 13. Die dritte Ebene zeigt Decodier-Perioden der Object Definition Segments (ODS) durch den Prozessor für einen Grafik-Strom 14. Die zweite Ebene zeigt Speicherinhalte des Zusammensetzungs-Puffers 16. Die erste Ebene zeigt Vorgänge des Grafik-Controllers 17.
  • Die Decodier-Anfangszeiten DTS der Object Definition Segments ODS1 und ODS2 zeigen jeweils t31 und t32. Dementsprechend müssen die Object Definition Segments ODS1 und ODS2 in dem Puffer für codierte Daten 13 jeweils bis zu den Zeiten t31 und t32 zwischengespeichert werden. Da dies so ist, wird das Schreiben des Object Definition Segment ODS1 in den Puffer für codierte Daten 13 bis zu der Zeit t31 abgeschlossen, zu der die Decodier-Periode dp1 beginnt, und das Schreiben des Object Definition Segment ODS2 in den Puffer für codierte Daten 13 ist bis zu der Zeit t32 abgeschlossen, zu der die Decodier-Periode dp2 beginnt.
  • Unterdessen zeigen die Anzeige-Anfangszeiten (PTS) der Object Definition Segments ODS1 und ODS2 jeweils die Zeiten t32 und t33 an. Dementsprechend ist das De codieren des Object Definition Segment ODS1 durch den Prozessor für einen Grafik-Strom 14 bis zu der Zeit t32 abgeschlossen, und das Decodieren des Object Definition Segments ODS2 durch den Prozessor für einen Grafik-Strom 14 ist bis zu der Zeit t33 abgeschlossen. Auf diese Weise wird ein Object Definition Segment ODS in dem Puffer für codierte Daten 13 bis zu einer Zeit zwischengespeichert, die durch eine Decodier-Anfangszeit (DTS) des Objekt Definition Segment ODS gezeigt wird, und das zwischengespeicherte Object Definition Segment ODS wird decodiert und bis zu einer Zeit, die durch eine Anzeige-Anfangszeit (PTS) des Object Definition Segment ODS gezeigt wird, zu dem Objekt-Puffer 15 gesendet.
  • Auf der ersten Ebene bezeichnet cd1 einen Zeitraum, der durch den Grafik-Controller 17 benötigt wird, um die Grafikebene 8 zu löschen, und td1 bezeichnet einen Zeitraum, der durch den Grafik-Controller 17 benötigt wird, um Grafiken, die in dem Objekt-Puffer 15 erhalten werden, in die Grafikebene 8 zu schreiben. Eine Anzeige-Anfangszeit (PTS) des Windows Definition Segment (WDS) zeigt eine Ablauffrist zum Starten des Schreibens der Grafiken. Eine Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) zeigt eine Zeit, zu der das Schreiben der Grafiken in die Grafikebene 8 endet und die geschriebenen Grafiken für die Anzeige dargestellt werden. Dementsprechend werden unkomprimierte Grafiken eines Bildschirmes in der Grafikebene 8 zu der Zeit erhalten, die durch die Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) angezeigt wird. Die CLUT-Einheit 9 führt Farbumwandlung an den unkomprimierten Grafiken durch, und die Addiereinrichtung 10 überlagert die Grafiken in einem unkomprimierten Bild, das in der Video-Ebene 6 gespeichert ist. Dadurch wird ein resultierendes Bild erzeugt.
  • In der Grafik-Decodiereinrichtung 12 fährt der Prozessor für einen Grafik-Strom 14 mit dem Decodieren fort, während der Grafik-Controller 17 die Grafikebene 8 löscht. Als ein Ergebnis einer solchen Pipeline-Verarbeitung können Grafiken schnell angezeigt werden.
  • 30 zeigt ein Beispiel für den Fall, wenn das Löschen der Grafikebene 8 vor dem Decodieren der Object Definition Segments (ODS) endet. Im Gegensatz dazu ist 31 ein Zeitablaufdiagramm, das die Pipeline-Verarbeitung zeigt, wenn das Decodieren der Object Definition Segments (ODS) vor dem Löschen der Grafikebene 8 endet. In diesem Fall können, bei Abschluss des Decodierens der Object Definition Segments (ODS) die Grafiken, die durch das Decodieren erhalten werden, noch nicht in die Grafikebene 8 geschrieben werden. Erst nachdem das Löschen der Grafikebene 8 abgeschlossen ist, können die Grafiken in die Grafikebene 8 geschrieben werden.
  • 32 ist ein Zeitablaufdiagramm, das Änderungen bei der Pufferbelegung in der Wiedergabevorrichtung 200 darstellt. In der Zeichnung zeigen die erste bis vierte Ebene jeweils Änderungen in der Pufferbelegung der Grafikebene 8, des Objekt-Puffers 15, des Puffers für codierte Daten 13 und des Zusammensetzungs-Puffers 16. Diese Änderungen werden in Form eines Liniengraphen dargestellt, bei dem die horizontale Achse die Zeit und die vertikale Achse die Belegung darstellt.
  • Die vierte Ebene zeigt Änderungen bei der Belegung des Zusammensetzungs-Puffers 16. Wie dies dargestellt ist, umfassen die Änderungen bei der Belegung des Zusammensetzungs-Puffers 16 einen monotonen Anstieg Vf0, mit dem die Ausgabe des Presentation Composition Segment (PCS) von dem Puffer für codierte Daten 13 gespeichert wird.
  • Die dritte Ebene zeigt Änderungen bei der Belegung des Puffers für codierte Daten 13. Wie dies dargestellt ist, umfassen die Änderungen bei der Belegung des Puffers für codierte Daten 13 monotone Anstiege Vf1 und Vf2, mit denen die der Object Definition Segments ODS1 und ODS 2 gespeichert werden, sowie monotone Abfälle Vg1 und Vg2, mit denen die Object Definition Segments ODS1 und ODS2 sequenziell durch den Prozessor für einen Grafik-Strom 14 gelesen werden. Steigungen der monotonen Anstiege Vf1 und Vf2 basieren auf einer Sendegeschwindigkeit Rx von dem Transport-Puffer 4a zu dem Puffer für codierte Daten 13, wohingegen monotone Abfälle Vg1 und Vg2 momentan sind, da das Decodieren durch den Prozessor für einen Grafik-Strom 14 momentan durchgeführt wird. Dies bedeutet, dass der Prozessor für einen Grafik-Strom 14 jedes Object Definition Segment (ODS) momentan decodiert und die unkomprimierten Grafiken, die durch das Decodieren erhalten werden, hält. Da die Sendegeschwindigkeit Rd von dem Prozessor für einen Grafik-Strom 14 zu dem Objekt-Puffer 15 128 Mbps beträgt, steigt die Belegung des Objekt-Puffers 15 bei einer Geschwindigkeit von 128 Mbps an.
  • Die zweite Ebene zeigt Änderungen bei der Belegung des Objekt-Puffers 15. Wie dies dargestellt ist, umfassen die Änderungen bei der Belegung des Objekt-Puffers 15 monotone Anstiege Vh1 und Vh2, mit denen die Grafik-Objekte der Object Definition Segments ODS1 und ODS 2, die von dem Prozessor für einen Grafik-Strom 14 ausgegeben werden, gespeichert werden. Steigungen von monotonen Anstiegen Vh1 und Vh2 basieren auf einer Sendegeschwindigkeit Rd von dem Prozessor für einen Grafik-Strom 14 zu dem Objekt-Puffer 15. Eine Decodier-Periode eines jeden des Object Definition Segment ODS1 und ODS 2 entspricht einem Zeitraum, in dem ein monotoner Abfall auf der dritten Ebene auftritt und in dem ein monotoner Anstieg auf der zweiten Ebene auftritt. Der Beginn der Decodier-Periode wird durch eine Decodier-Anfangszeit (DTS) des Object Definition Segment (ODS) gezeigt, wohingegen das Ende der Decodier-Periode durch eine Anzeige-Anfangszeit (PTS) des Object Definition Segment (ODS) gezeigt wird. Wenn das unkomprimierte Grafik-Objekt bis zu der Zeit, die durch die Anzeige-Anfangszeit (PTS) des Object Definition Segment (ODS) gezeigt wird, zu dem Objekt-Puffer 15 gesendet wird, ist das Decodieren des Object Definition Segment (ODS) abgeschlossen. Für das unkomprimierte Grafik-Objekt ist es außerordentlich wichtig, bis zu der Zeit, die durch die Anzeige-Anfangszeit (PTS) des Object Definition Segment (ODS) gezeigt wird, in dem Objekt-Puffer 15 gespeichert zu werden. So lange wie diese Bedingung erfüllt ist, sind der monotone Abfall und der monotone Anstieg in der Decodier-Periode nicht auf jene, die in 32 dargestellt sind, beschränkt.
  • Die erste Ebene zeigt Änderungen bei der Belegung der Grafikebene 8. Wie dies dargestellt ist, umfassen die Änderungen bei der Belegung der Grafikebene 8 monotone Anstiege Vf3, mit denen die Grafik-Objekte, die von dem Objekt-Puffer 15 ausgegeben werden, gespeichert werden. Eine Steigung eines monotonen Anstieges Vf3 basiert auf der Sendegeschwindigkeit Rc von dem Objekt-Puffer 15 zu der Grafikebene 8. Das Ende des monotonen Anstieges Vf3 wird durch die Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) gezeigt.
  • Der Graph wie solch einer, der in 32 dargestellt ist, kann durch Verwendung der Decodier-Anfangszeiten (DTS) und der Anzeige-Anfangszeiten (PTS) der Object Definition Segments (ODS), der Decodier-Anfangszeiten (DTS) und der Anzeige-Anfangszeiten (PTS) des Presentation Composition Segment (PCS) und der Puffergrößen und der Sendegeschwindigkeiten, die in 29 dargestellt sind, erstellt werden. Solch ein Graph ermöglicht es dem Verfasser zu erfassen, wie sich die Puffer-Zustände ändern, wenn der AV-Clip auf der BD-ROM 100 wiedergegeben wird.
  • Diese Änderungen der Pufferzustände können durch erneutes Schreiben von Decodier-Anfangszeiten (DTS) und Anzeige-Anfangszeiten (PTS) angepasst werden. Dementsprechend ist es dem Verfasser möglich, das Auftreten solch einer Decodierlast, die die Spezifizierungen einer Decodiereinrichtung der Wiedergabevorrichtung 200 übersteigt, zu verhindern, oder zu verhindern, dass während der Wiedergabe ein Überlauf im Puffer auftritt. Dadurch wird es bei der Entwicklung der Wiedergabevorrichtung 200 leichter, Hardware und Software zu implementieren. Mit dieser Bemerkung ist die Erläuterung zur internen Konfiguration der Wiedergabevorrichtung 200 abgeschlossen.
  • Im folgenden Verlauf der Beschreibung wird erläutert, wie die Grafik-Decodiereinrichtung 12 implementiert wird. Die Grafik-Decodiereinrichtung 12 kann realisiert werden, indem eine universale CPU (zentrale Rechnereinheit) ein Programm zum Durchführen eines Vorgangs, der in 33 dargestellt ist, ausführt. Im Folgenden wird in Bezug auf 33 eine Funktionsweise der Grafik-Decodiereinrichtung 12 erläutert.
  • 33 ist ein Ablaufplan, der einen Vorgang des Ladens eines funktionalen Segments darstellt. In der Zeichnung ist SegmentK eine Variabel, die ein Segment anzeigt (PCS, WDS, PDS oder ODS), das zu einem Anzeigesatz (DS) gehört und während der Wiedergabe des AV-Clips gelesen wird, und ein Negier-Flag zeigt an, ob ein SegmentK ignoriert oder geladen werden soll. In diesem Ablaufplan wird, nachdem das Negier-Flag auf den Wert 0 zurückgesetzt wird (S20), eine Schleife der Schritte S1 bis S24 und S27 bis S31 für jedes SegmentK (S25 und S26) durchgeführt.
  • In Schritt S21 wird beurteilt, ob es sich bei dem SegmentK um ein Presentation Composition Segment (PCS) handelt. Wenn es sich bei dem SegmentK um ein Presentation Composition Segment (PCS), fährt der Vorgang mit Schritt S27 fort.
  • In Schritt S22 wird beurteilt, ob das Negier-Flag den Wert 0 oder 1 aufweist. Wenn das Negier-Flag den Wert 0 aufweist, fährt der Vorgang mit Schritt S23 fort. Wenn das Negier-Flag den Wert 1 aufweist, fährt der Vorgang mit Schritt S24 fort. In Schritt S23 wird das SegmentK in den Puffer für codierte Daten 13 geladen.
  • Wenn das Negier-Flag den Wert 1 aufweist (S22: NEIN), wird das SegmentK ignoriert. (S24). Dies führt in Schritt S22 zu der Negativ-Beurteilung zu allen funktionalen Segmenten, die zu dem Anzeigesatz DS gehören, und als Ergebnis davon werden alle funktionalen Segmente des Anzeigesatzes DS ignoriert.
  • Auf diese Weise zeigt das Negier-Flag an, ob das SegmentK ignoriert oder geladen werden soll. Die Schritte S27 bis S31 und S34 bis S35 werden durchgeführt, um dieses Negier-Flag einzustellen.
  • In Schritt S27 wird beurteilt, ob ein Feld Zusammensetzungs_Zustand (composition_state) des Presentation Composition Segment (PCS) einen Erfassungspunkt anzeigt. Wenn das Feld Zusammensetzungs_Zustand (composition_state) einen Erfassungspunkt anzeigt, fährt der Vorgang mit Schritt S28 fort. Wenn das Feld Zusammensetzungs_Zustand (composition_state) einen Anfang eines Zeitraums (Epoch Start) oder einen Normalfall (Normal Case) anzeigt, fährt der Vorgang mit Schritt S31 fort.
  • In Schritt S28 wird beurteilt, ob ein unmittelbar vorangehender Anzeigesatz (DS) in irgendeinem der Puffer (in dem Puffer für codierte Daten 13, dem Prozessor für einen Grafik-Strom 14, dem Objekt-Puffer 15 und dem Zusammensetzungs-Puffer 16) in der Grafik-Decodiereinrichtung 12 vorhanden ist. Der unmittelbar vorangehende Anzeigesatz (DS) ist nicht in der Grafik-Decodiereinrichtung 12 vorhanden, wenn ein Vorgang des Überspringens durchgeführt wird. In diesem Fall muss die Anzeige von dem Erfassungspunkt des Anzeigesatzes (Acquisition Point DS) gestartet werden, so dass der Vorgang mit Schritt S30 fortfährt (S28: NEIN).
  • In Schritt S30 wird das Negier-Flag auf den Wert 0 eingestellt, und der Vorgang fährt mit Schritt S22 fort.
  • Im Gegensatz dazu ist der unmittelbar vorangehende Anzeigesatz (DS) in der Grafik-Decodiereinrichtung 12 vorhanden, wenn eine normale Wiedergabe durchgeführt wird.
  • In diesem Fall fährt der Vorgang mit Schritt S29 fort (S28: JA). In Schritt S29 wird das Negier-Flag auf den Wert 1 eingestellt, und der Vorgang fährt mit Schritt S22 fort.
  • In Schritt S31 wird beurteilt, ob das Feld Zusammensetzungs_Zustand (composition_state) einen Normalfall (Normal Case) anzeigt. Wenn das Feld Zusammensetzungs_Zustand (composition_state) einen Normalfall (Normal Case) zeigt, fährt der Vorgang mit Schritt S34 fort. Wenn das Feld Zusammensetzungs_Zustand (composition_state) einen Anfang eines Zeitraums (Epoch Start) zeigt, fährt der Vorgang mit Schritt S30 fort, in dem das Negier-Flag auf den Wert 0 eingestellt wird.
  • Schritt S34 ist der gleiche wie Schritt S28, und in diesem wird beurteilt, ob der unmittelbar vorangehende Anzeigesatz (DS) in der Grafik-Decodiereinrichtung 12 vorhanden ist. Wenn der unmittelbar vorangehende Anzeigesatz (DS) vorhanden ist, wird das Negier-Flag auf den Wert 0 eingestellt (S30). Anderenfalls wird das Negier-Flag auf den Wert 1 eingestellt, da nicht ausreichend viele funktionale Segmente zum Zusammensetzen eines Bildschirms aus Grafiken erhalten werden können (S35). Auf diese Weise werden, wenn der unmittelbar vorangehende Anzeigesatz (DS) nicht in der Grafik-Decodiereinrichtung 12 vorhanden ist, die funktionalen Segmente des Anzeigesatzes (DS) des Normalfalls (Normal Case) ignoriert.
  • Im Folgenden wird in Bezug auf 34 ein spezifisches Beispiel des Ladens eines Anzeigesatzes (DS) beschrieben. In 34 werden drei Anzeigesätze (DS1, DS10 und DS20) mit Video Multiplexen unterzogen. Ein Feld Zusammensetzungs_Zustand (composition_state) des Anzeigesatzes DS1 zeigt einen Anfang eines Zeitraums (Epoch Start), ein Feld Zusammensetzungs_Zustand (composition_state) des Anzeigesatzes DS10 zeigt einen Erfassungspunkt (Acquisition Point), und ein Feld Zusammensetzungs_Zustand (composition_state) des Anzeigesatzes DS20 zeigt einen Normalfall (Normal Case).
  • Hierbei sei angenommen, dass ein Vorgang des Überspringens an Bilddaten pt10 in einem AV-Clip durchgeführt wird, in dem diese drei Anzeigesätze (DS) mit Video einem Multiplexen unterzogen werden, wie dies durch den Pfeil am1 angezeigt wird. In solch einem Fall wird der Anzeigesatz DS10, der den Bilddaten pt10 am nächsten ist, dem in 33 dargestellten Vorgang unterzogen. Das Feld Zusammensetzungs_Zustand (composition_state) des Anzeigesatzes DS10 zeigt einen Erfassungspunkt (Acquisition Point) an (S27: JA), aber der unmittelbar vorangehende Anzeigesatz DS1 ist in dem Puffer für codierte Daten 13 nicht vorhanden (S28: NEIN). Dementsprechend wird das Negier-Flag auf den Wert 0 eingestellt (S30). Als Ergebnis wird der Anzeigesatz DS10 in den Puffer für codierte Daten 13 geladen, wie dies durch den Pfeil md1 in 35 angezeigt wird. Hierbei sei im Gegensatz dazu angenommen, dass ein Vorgang des Überspringens an Bilddaten, die hinter dem Anzeigesatz DS10 angeordnet sind, durchgeführt wird, wie dies durch den Pfeil am2 in 34 dargestellt ist. In diesem Fall ist der Anzeigesatz DS20 ein Anzeigesatz eines Normalfalls (Normal Case), und der unmittelbar vorangehende Anzeigesatz DS10 ist in dem Puffer für codierte Daten 13 nicht vorhanden. Dementsprechend wird der Anzeigesatz DS20 ignoriert, wie dies durch den Pfeil md2 in 35 angezeigt wird.
  • 37 zeigt wie die Anzeigesätze DS1, DS10 und DS20 geladen werden, wenn die normale Wiedergabe durchgeführt wird, wie dies in 36 dargestellt ist. Von den drei Anzeigesätzen DS, wird der Anzeigesatz DS1, bei dem es sich um einen Anzeigesatz eines Zeitraumanfangs (Epoch Start) handelt, in den Puffer für codierte Daten 13 geladen, wie dies durch den Pfeil rd1 dargestellt ist (S23). Das Negier-Flag wird für den Anzeigesatz DS10, bei dem es sich um einen Anzeigesatz eines Erfassungspunktes (Acquisition Point) handelt, jedoch auf den Wert 1 eingestellt (S29), so dass die funktionalen Segmente des Anzeigesatzes DS10 nicht in den Puffer für codierte Daten 13 geladen, sondern ignoriert werden, wie dies durch den Pfeil rd2 angezeigt wird (S24). Unterdessen wird der Anzeigesatz DS20, bei dem es sich um einen Anzeigesatz eines Normalfalls (Normal Case) handelt, in den Puffer für codierte Daten 13 geladen, wie dies durch den Pfeil rd3 dargestellt wird (S23).
  • Im Folgenden wird eine Funktionsweise des Grafik-Controllers 17 erläutert. Die 38 bis 40 sind Ablaufpläne, die die Funktionsweise des Grafik-Controllers 17 darstellen.
  • Die Schritte S41 bis S44 bilden eine Hauptroutine, wobei ein Ereignis, das durch einen beliebigen der Schritte S41 bis S44 spezifiziert wird, im Wartezustand verbleibt.
  • In 38 beurteilt der Schritt S41, ob die aktuelle Wiedergabezeit eine Decodier-Anfangszeit (DTS) eines Presentation Composition Segment (PCS) ist. Wenn dies der Fall ist, werden die Schritte S45 bis S53 durchgeführt.
  • In Schritt S45 wird beurteilt, ob ein Feld Zusammensetzungs_Zustand (composition_state) des Presentation Composition Segment (PCS) einen Zeitraumanfang (Epoch Start) anzeigt. Wenn dies der Fall ist, wird die gesamte Grafikebene 8 in Schritt S46 gelöscht. Anderenfalls werden in Schritt S47 ein Fenster, das durch ein Feld Fenster_horizontale_Position (window_horizontal_position), ein Feld Fenster_vertikale_Position (window_vertical_position), ein Feld Fenster_Breite (window_width) und ein Feld Fenster_Höhe (window_height) eines Windows Definition Segment (WDS) spezifiziert wird, gelöscht.
  • Schritt S48 wird nach dem Schritt S46 oder nach dem Schritt S47 durchgeführt, und in ihm wird beurteilt, ob eine Anzeige-Anfangszeit (PTS) von beliebigen Object Definition Segments (ODSx) verstrichen ist. Das Löschen der gesamten Grafikebene 8 dauert eine lange Zeit, so dass das Decodieren der Object Definition Segments (ODSx) bereits zu der Zeit abgeschlossen sein kann, zu der die gesamte Grafikebene 8 gelöscht wird. In Schritt S48 wird diese Möglichkeit überprüft. Wenn die Anzeige-Anfangszeit (PTS) der Objekt Definition Segments (ODSx) noch nicht verstrichen ist, kehrt der Vorgang zur Hauptroutine zurück. Wenn die Anzeige-Anfangszeit (PTS) der Object Definition Segments (ODSx) verstrichen ist, werden die Schritte S49 bis S51 durchgeführt. In Schritt S49 wird beurteilt, ob ein Feld Objekt_zugeschnitten_Flag (object_cropped_flag) den Wert 0 zeigt. Wenn dies der Fall ist, wird ein Grafik-Objekt, das den Object Definition Segments (ODSx) entspricht, auf einen Zustand der Nicht-Anzeige eingestellt (S50).
  • Wenn das Feld Objekt_zugeschnitten_Flag (object_cropped_flag) den Wert 1 zeigt, werden ein Grafik-Objekt, das auf Basis eines Feldes Objekt_zugeschnitten_horizontale_Position (object_cropped_horizontal_position), eines Feldes Objekt_zugeschnitten_vertikale_Position (object_cropping_vertical_position), eines Feldes zuschneiden_Breite (cropping_width) und eines Feldes zuschneiden_Höhe (cropping_height) in das Fenster in der Grafikebene 8 an einer Position geschrieben, die durch ein Feld Objekt_horizontale_Position (object_orizontal_position) und ein Feld Objekt_vertikale_Position (object_vertical_position) spezifiziert wird (S51). Auf diese Weise wird das Grafik-Objekt in das Fenster geschrieben.
  • In Schritt S52 wird beurteilt, ob eine Anzeige-Anfangszeit (PTS) eines anderen Object Definition Segments (ODSy) verstrichen ist. Wenn das Decodieren des anderen Object Definition Segment (ODSy) abgeschlossen ist, während das Grafik-Objekt des Object Definition Segment (ODSy) in die Grafikebene 8 geschrieben wird, wird das Object Definition Segment (ODSy) als ODSx eingestellt (S53), und der Vorgang kehrt zurück zu Schritt S49. Als Ergebnis werden die Schritte S49 bis S51 an dem Object Definition Segment (ODSy) durchgeführt.
  • In 39 wird in dem Schritt S42 beurteilt, ob die aktuelle Wiedergabezeit eine Anzeige-Anfangszeit (PTS) des Windows Definition Segment (WDS) ist. Wenn dies der Fall ist, fährt der Vorgang mit Schritt S54 fort, um zu beurteilen, ob die Anzahl an Fenstern 1 ist. Wenn die Anzahl an Fenstern 2 ist, kehrt der Vorgang zurück zur Hauptroutine. Wenn die Anzahl an Fenstern 1 ist, wird eine Schleife der Schritte S55 bis S59 durchgeführt. In dieser Schleife werden die Schritte S57 bis S59 für jedes der höchstens zwei Grafik-Objekte, die in dem Fenster angezeigt werden sollen, durchgeführt. In Schritt S57 wird beurteilt, ob das Feld Objekt_zugeschnitten_Flag (object_crpped_flag) den Wert 0 zeigt. Wenn dies der Fall ist, wird das Grafik-Objekt auf einen Zustand der Nicht-Anzeige eingestellt (S58).
  • Wenn das Feld Objekt_zugeschnitten_Flag (object_cropped_flag) den Wert 1 anzeigt, werden das Grafik-Objekt, das auf Basis eines Feldes Objekt_zuschneiden_horizontale_Position (object_cropping_horizontal_position), eines Feldes Objekt_zuschneiden_vertikale_Position (object_cropping_vertical_position), eines Feldes zuschneiden_Breite (cropping_width) und eines Feldes zuschneiden_Höhe (cropping_height) zugeschnitten wird, in das Fenster in der Grafikebene 8 an einer Position geschrieben, die durch ein Feld Objekt_horizontale_Position (object_horizontal_position) und ein Feld Objekt_vertikale_Position (object_vertical_position) spezifiziert wird (S59). Als ein Ergebnis dieser Schleife werden ein oder mehre Grafik-Objekte in das Fenster geschrieben.
  • In Schritt S44 wird beurteilt, ob es sich bei der aktuellen Wiedergabezeit um eine Anzeige-Anfangszeit (PTS) des Presentation Composition Segment (PCS) handelt. Wenn dies der Fall ist, fährt der Vorgang mit Schritt S60 fort, um zu beurteilen, ob ein Feld Palette_Aktualisierungs_Flag (palette_update_flag) den Wert 1 zeigt. Wenn dies der Fall ist, wird eine Palette, die durch ein Feld Paletten_ID (palette_id) identifiziert wird, auf die CLUT-Einheit 9 eingestellt (S61). Wenn das Feld Palette Aktualisierungs_Flag (palette_update_flag) den Wert 0 zeigt, wird der Schritt S61 übersprungen.
  • Anschließend führt die CLUT-Einheit 9 eine Farbumwandlung der Grafiken in der Grafikebene 8 durch. Die Grafiken werden anschließend auf Video aufgelegt (S62).
  • In 40 wird in Schritt S43 beurteilt, ob es sich bei der aktuellen Wiedergabezeit um eine Anzeige-Anfangszeit (PTS) eines Object Definition Segment (ODS) handelt. Wenn dies der Fall ist, fährt der Vorgang mit Schritt S63 fort, um zu beurteilen, ob die Anzahl an Fenstern 2 beträgt. Wenn die Anzahl an Fenstern 1 beträgt, kehrt der Vorgang zu der Hauptroutine zurück.
  • Hierbei haben die Beurteilungen, die in den Schritten S43 und S63 gemacht werden, die folgende Bedeutung. Wenn die Anzahl an Fenstern 2 ist, werden jeweils zwei Grafik-Objekte in den zwei Fenstern angezeigt. In solch einem Fall muss jedes Mal, wenn Decodieren eines Object Definition Segment (ODS) abgeschlossen ist, ein Grafik-Objekt, das durch das Decodieren erhalten wird, in die Grafikebene 8 geschrieben werden (siehe 19B). Wenn dementsprechend die aktuelle Wiedergabezeit die Anzeige-Anfangszeit des Object Definition Segment (ODS) ist und die Anzahl der Fenster 2 ist, werden die Schritte S64 bis S66 durchgeführt, um jedes einzelne Grafik-Objekt in die Grafikebene 8 zu schreiben. In Schritt S64 wird beurteilt, ob das Feld Objekt_zugeschnitten_Flag (object_cropped_flag) den Wert 0 zeigt. Wenn dies der Fall ist, wird das Grafik-Objekt auf einen Zustand der Nicht-Anzeige eingestellt (S65).
  • Wenn das Feld Objekt_zugeschnitten_Flag (object_cropped_flag) den Wert 1 zeigt, werden das Grafik-Objekt, das auf Basis eines Feldes Objekt_zuschneiden_horizontale_Position (object_cropping_horizontal_position), eines Feldes Objekt_zuschneiden_vertikale_Position (object_cropping_vertical_position), eines Feldes zuschneiden_Breite (cropping_width) und eines Feldes zuschneiden_Höhe (cropping_height) zugeschnitten wird, in das Fenster in der Grafikebene 8 an einer Position geschrieben, die durch ein Feld Objekt_horizontale_Position (object_horizontal_position) und ein Feld Objekt_vertikale_Position (object_vertical_position) spezifiziert wird (S66). Durch Wiederholen dieses Prozesses werden jeweils zwei Grafik-Objekte in die zwei Fenster geschrieben.
  • In Übereinstimmung mit dieser Ausführungsform wird die Verarbeitung eines Anzeigesatzes (DS) während einer aktiven Periode eines Presentation Composition Segment (PCS) in einem unmittelbar vorangehenden Anzeigesatz gestartet. Mit anderen Worten bedeutet dies, dass die Verarbeitung des Anzeigesatzes (DS) gestartet werden kann, ohne dabei darauf zu warten, dass die aktive Periode des Presentation Composition Segment (PCS) in dem unmittelbar vorangehenden Anzeigesatz (DS) endet. Die Zeit zu der die Verarbeitung des Anzeigesatzes (DS) gestartet wird, ist dann, wenn während der aktiven Periode des Presentation Composition Segment (PCS) in dem unmittelbar vorangehenden Anzeigesatz (DS) das Decodieren und das Senden von Grafiken des unmittelbar vorangehenden Anzeigesatzes (DS) abgeschlossen sind. Dementsprechend kann die Verarbeitung des Anzeigesatzes (DS) um einen Zeitraum von dem Abschluss des Decodierens und des Sendens der Grafiken des unmittelbar vorangehenden Anzeigesatzes (DS) zu dem Ende der aktiven Periode des Presentation Composition Segment (PCS) in dem unmittelbar vorangehenden Anzeigesatz vorverlegt werden.
  • Selbst wenn die Verarbeitung des Anzeigesatzes (DS) während der aktiven Periode des Presentation Composition Segment (PCS) in dem unmittelbar vorangehenden Anzeigesatz DS auf eine solche Weise gestartet wird, überlappt ein Zeitraum, in dem ein Grafik-Objekt des Anzeigesatzes (DS) in den Objekt-Puffer geschrieben wird, nicht einen Zeitraum, in dem ein Grafik-Objekt des unmittelbar vorangehenden Anzeigesatzes (DS) in den Objekt-Puffer geschrieben wird. Dementsprechend können, so lange wie ein Speicher mit dualen Port, in den gleichzeitig geschrieben und gelesen werden kann, als Objekt-Puffer verwendet wird, zwei oder mehr Anzeigesätze (DS) in einer Pipeline mit einem einzigen Prozessor für einen Grafikstrom verarbeitet werden. Solch eine Pipeline-Verarbeitung erhöht die Decodiereffizienz, ohne dabei die interne Konfiguration der Wiedergabevorrichtung 200 zu verkomplizieren.
  • (Zweite Ausführungsform)
  • Die zweite Ausführungsform der vorliegenden Erfindung betrifft einen Herstellungsprozess der BD-ROM 100, die in der ersten Ausführungsform beschrieben worden ist. 41 ist ein Ablaufplan, der einen Herstellungsprozess der BD-ROM 100 darstellt.
  • Der Herstellungsprozess umfasst einen Schritt der Materialproduktion des Aufzeichnens von Video, Klang und Ähnlichem (S201), einen Verfassungsschritt des Schaffens eines Anwendungsformates unter Verwendung einer Verfassungsvorrichtung (S202) und eines Schrittes des Pressens des Erzeugens einer originalen Vaterplatte der BD-ROM 100 und des Durchführens von Ausstanzen und Verkleben, um die BD-ROM 100 fertig zu stellen (S203).
  • In diesem Herstellungsprozess umfasst der Schritt des Verfassens die Schritte S204 bis S213.
  • In Schritt S204 werden Steuerinformationen, Fenster-Definitionsinformationen, Paletten-Definitionsinformationen und Grafiken erzeugt. In Schritt S205 werden die Steuerinformationen, die Fenster-Definitionsinformationen, die Paletten-Definitionsinformationen und die Grafiken in funktionale Segmente umgewandelt. In Schritt S206 wird eine Anzeige-Anfangszeit (PTS) eines jeden Presentation Composition Segment (PCS) auf Basis einer Zeit eines Bildes, mit dem es synchronisiert werden soll, eingestellt. In Schritt S207 werden eine Decodier-Anfangszeit DTS [Object Definition Segment ODS] und eine Anzeige-Anfangszeit PTS [Object Definition Segment ODS] auf Basis der Anzeige-Anfangszeit PTS [Presentation Composition Segment] eingestellt. In Schritt S208 werden eine Decodier-Anfangszeit DTS [Presentation Composition Segment PCS], eine Anzeige-Anfangszeit PTS [Palette Definition Segment PDS], eine Decodier-Anfangszeit DTS [Windows Definition Segment WDS] und eine Anfangs-Anzeigezeit PTS [Windows Definition Segment WDS] auf Basis der Decodier-Anfangszeit DTS [Object Definition Segment ODS] eingestellt. In Schritt S209 werden Änderungen bei der Belegung eines jeden Puffers in dem Player-Modell als Graphen abgebildet. In Schritt S210 wird eine Beurteilung dahingehend gegeben, ob die als Graphen dargestellten Änderungen die Beschränkungen des Player-Modells erfüllen. Wenn die Beurteilung verneinend ausfällt, werden die Decodier-Anfangszeit (DTS) und die Anzeige-Anfangszeit (PTS) eines jeden funktionalen Segmentes in Schritt S211 er neut geschrieben. Wenn die Beurteilung bejahend ausfällt, wird in Schritt S212 ein Grafik-Strom erzeugt, und der Grafik-Strom wird mit einem Video-Strom und einem Audio-Strom Multiplexen unterzogen, um in Schritt S213 einen AV-Clip zu erzeugen. Anschließend wird der AV-Clip an das Nur-Lese-Format der Blue-ray Disc angepasst, um das Anwendungsformat fertig zu stellen.
  • (Modifizierungen)
  • Obgleich die vorliegende Erfindung anhand der voranstehenden Ausführungsformen beschrieben wurde, ist die vorliegende Erfindung nicht darauf beschränkt. Die vorliegende Erfindung kann auch mit beliebigen der im Folgenden beschriebenen Modifizierungen (A) bis (O) umgesetzt werden. Die Erfindung eines jeden der Ansprüche dieser Anmeldung umfasst eine Erweiterung und eine Verallgemeinerung der voranstehend beschriebenen Ausführungsformen und ihrer im Folgenden beschriebenen Modifizierungen. Der Grad an Erweiterung und Verallgemeinerung hängt von dem Stand der Technik auf dem Gebiet der Technik der vorliegenden Erfindung zu dem Zeitpunkt ab, zu dem die Erfindung gemacht wurde.
    • (A) Die voranstehend beschriebenen Ausführungsformen beschreiben den Fall, in dem die BD-ROM als das Aufzeichnungsmedium verwendet wird. Die Hauptmerkmale der vorliegenden Erfindung bestehen jedoch in einem Grafik-Strom, der auf ein Aufzeichnungsmedium aufgezeichnet ist, das nicht auf den physikalischen Eigenschaften von BD-ROMs beruht. Dementsprechend ist die vorliegende Erfindung auf ein beliebiges Aufzeichnungsmedium anwendbar, das in der Lage ist, einen Grafik-Strom aufzuzeichnen. Beispiele eines solchen Aufzeichnungsmediums umfassen: eine optische Platte wie beispielsweise eine DVD-ROM, einen DVD-RAM, eine DVD-RW, eine DVD-R, eine DVD + RW, eine DVD + R, eine CD-R, oder eine CD-RW; eine magnetooptische Platte wie beispielsweise eine PD-Platte oder eine MO-Platte; eine Halbleiter-Speicherkarte wie beispielsweise eine CompactFlash-Karte, eine SmartMedia-Karte eine MemoryStick-Karte, eine MultiMedia-Karte oder eine PCMCIA-Karte; eine Magnetplatte, wie beispielsweise eine flexible Platte, eine SuperDisk, eine Zip-Platte oder eine Clik!; ein entnehmbares Festplattenlaufwerk, wie beispielsweise ORB, Jaz, SparQ, SyJet, EzFley oder Microdrive und ein nicht entnehmbares Festplattenlaufwerk.
    • (B) Die voranstehend beschriebenen Ausführungsformen beschreiben den Fall, in dem die Wiedergabevorrichtung einen AV-Clip auf der BD-ROM decodiert und den decodierten AV-Clip an den Fernseher ausgibt. Als eine Alternative dazu kann die Wiedergabevorrichtung auch mit lediglich einem Blue-ray Disc-Laufwerk ausgestattet sein, wobei die verbleibenden Konfigurationselemente in dem Fernseher vorhanden sind. In diesem Fall können die Wiedergabevorrichtung und der Fernseher in einem häuslichen Netzwerk integriert sein, das mit einem IEEE 1394-Verbinder verbunden ist.
    • Die voranstehend beschriebenen Ausführungsformen beschreiben den Fall, in dem die Wiedergabevorrichtung mit dem Fernseher verbunden ist, die Wiedergabevorrichtung kann stattdessen jedoch auch mit einer Anzeigevorrichtung integriert sein. Darüber hinaus kann die Wiedergabevorrichtung auch lediglich das LSI-System (integrierte Schaltung) enthalten, das einen ausschlaggebenden Teil der Verarbeitung bildet. Die Wiedergabevorrichtung und die integrierte Schaltung sind beide eine Erfindung, die in dieser Spezifizierung beschrieben werden. Dementsprechend ist, ungeachtet davon, ob die Wiedergabevorrichtung oder die integrierte Schaltung gemeint ist, ein Vorgang des Verfassers einer Wiedergabevorrichtung auf Basis der internen Konfiguration der in der ersten Ausführungsform beschriebenen Wiedergabevorrichtung ein Vorgang des Ausführens der vorliegenden Erfindung. Darüber hinaus ist ein beliebiger Vorgang des Zuweisens mit Entgeld (das heißt, zum Verkauf) oder ohne Entgeld (das heißt, als ein Geschenk), des Leasens und des Importierens der Wiedergabevorrichtung ein Vorgang des Ausführens der vorliegenden Erfindung. Auf gleiche Weise ist ein Vorgang des Anbietens zum Zuweisen oder Leasen der Wiedergabevorrichtung unter Verwendung von Anzeigen in Schaufensterfronten, Katalogen oder Broschüren, ein Vorgang des Ausführens der vorliegenden Erfindung.
    • (C) Die Informationsverarbeitung unter Verwendung der Programme, die in den Ablaufplänen dargestellt sind, wird tatsächlich unter Verwendung von Hardware-Ressourcen durchgeführt. Dementsprechend sind die Programme, die die operativen Vorgehensweisen, die in den Ablaufplänen dargestellt sind, beschreiben, selbst eine Erfindung. Die voranstehend beschriebenen Ausführungsformen beschreiben den Fall, in dem Programme in der Wiedergabevorrichtung integriert sind, die Programme können jedoch auch unabhängig von der Wiedergabevorrichtung verwendet werden. Vorgänge des Ausführens der Programme umfassen (1) einen Vorgang des Verfassens, (2) einen Vorgang des Zuweisens mit oder ohne Entgeld, (3) einen Vorgang des Leasens, (4) einen Vorgang des Importierens, (5) einen Vorgang des Bereitstellens der Öffentlichkeit eines bidirektionalen elektronischen Kommunikationsnetzwerkes und (6) einen Vorgang des Anbietens zum Zuweisen oder Leasen unter Verwendung von Schaufensterfronanzeigen, Katalogen oder Broschüren.
    • (D) Die Zeitelemente der Schritte, die in einer Zeitreihenfolge in einem jeden der Ablaufpläne durchgeführt werden, können als die notwendigen Elemente der vorliegenden Erfindung erachtet werden. Da dies so ist, ist ein Verfahren zur Wiedergabe, das durch diese Ablaufpläne gezeigt wird, eine Erfindung. Wenn die Verarbeitung, die in einem jeden Ablaufplan dargestellt ist, durch Durchführen der Schritte in einer Zeitreihenfolge ausgeführt wird, um das beabsichtigte Ziel und die beabsichtigen Effekte zu erreichen, stellt dies einen Vorgang des Ausführens des Aufzeichnungsverfahrens der vorliegenden Erfindung dar.
    • (E) Wenn ein AV-Clip auf die BD-ROM aufgezeichnet wird, kann ein Erweiterungs-Header zu jedem TS-Paket in dem AV-Clip hinzugefügt werden. Dieser Erweiterungs-Header wird TP_extra_header genannt, enthält einen Ankunfts_Zeit_Stempel (arrival_time_stamp) und einen Kopier_Erlaubnis_Indikator (copy_permission_indicator) und weist eine Datenlänge von 4 Bytes auf. TS-Pakete mit TP_extra_headers (im Folgenden als „EX TS-Pakete" bezeichnet) werden in Einheiten von 32 Paketen gruppiert, und jede Gruppe wird in drei Sektoren geschrieben. Eine Gruppe, die aus 32 EX TS-Paketen gebildet ist, besitzt 6.144 Bytes (= 32 × 192), was einer Größe von drei Sektoren entspricht, die 6144 Bytes ist (= 2048 × 3). Die 32 EX TS-Pakete, die in den drei Sektoren enthalten sind, werden als eine Ausgerichtete Einheit (Aligned Einheit) bezeichnet.
    • In einem häuslichen Netzwerk, das mit einem IEEE 1394-Verbinder verbunden ist, sendet die Wiedergabevorrichtung eine Ausgerichtete Einheit auf die folgende Weise. Die Wiedergabevorrichtung entfernt einen TP_extra_Header aus einem jeden der 32 EX TS-Pakete in der Ausgerichteten Einheit, verschlüsselt den Körper eines jeden TS-Paketes in Übereinstimmung mit der DTCP-Spezifizierung und gibt die verschlüsselten TS-Pakete aus. Wenn die TS-Pakete ausgegeben werden, fügt die Wiedergabevorrichtung ein isochrones Paket zwischen angrenzende TS-Pakete ein. Eine Position, an die das die das isochrone Paket eingefügt wird, basiert auf einer Zeit, die durch einen Ankunfts_Zeit_Stempel (arrival_time_stamp) des TP_extra_header gezeigt wird. Die Wiedergabevorrichtung gibt einen DTCP_Deskriptor ebenso wie die TS-Pakete aus. Der DTCP_Deskriptor entspricht einem Kopier_Erlaubnis_Indikator (copy_permission_indicator) in dem TP_extra_header. Mit der Bereitstellung des DTCP_Deskriptors, der „Kopie untersagt" anzeigt, ist es möglich, zu verhindern, dass, wenn die TS-Pakete in dem häuslichen Netzwerk, das mit dem IEEE 1394-Verbinder verbunden ist, verwendet werden, die TS-Pakete auf andere Vorrichtungen aufgezeichnet werden.
    • (F) Die voranstehend beschriebenen Ausführungsformen beschreiben den Fall, in dem ein AV-Clip des Nur-Lese-Formats der Blue-ray Disc als ein digitaler Strom verwendet wird, die vorliegende Erfindung kann jedoch auch mit einem VOB (Videoobjekt) des DVD-Videoformats oder des DVD-Video-Aufzeichnungsformats umgesetzt werden. Das Videoobjekt VOB ist ein Programm-Strom, der dem ISO/IEC 13818-1-Standard entspricht und wird durch Multiplexen eines Video-Stroms und eines Audio-Stroms erhalten. Darüber hinaus kann der Video-Strom in dem AV-Clip ein MPEG4-Video-Strom oder ein WMV-Video-Stream sein. Darüber hinaus kann der Audio-Strom in dem AV-Clip ein linearer PCM-Audio-Strom, ein Dolby AC-3-Audio-Strom, ein MP3-Audio-Strom, ein MPEG-AAC-Audio-Stream oder ein dts-Audio-Strom sein.
    • (G) Der Film, der in den voranstehend beschriebenen Ausführungsformen beschrieben wurde, kann durch Codieren eines analogen Bildsignals erhalten werden, das durch analoges Rundsenden rundgesendet wird. Darüber hinaus kann der Film durch Streamdaten gebildet sein, die aus einem Transport-Strom gebildet sind, der durch digitales Rundsenden rundgesendet wird.
    • Alternativ dazu kann ein analoges/digitales Bildsignal, das auf einem Videoband aufgezeichnet ist, codiert werden, um Inhalt zu erhalten. Darüber hinaus kann ein analoges/digitales Bildsignal, das direkt durch eine Videokamera eingefangen wird, codiert werden, um Inhalt zu erhalten. Ein digitales Erzeugnis, das durch einen Distributions-Server verteilt wird, ist ebenfalls anwendbar.
    • (H) Grafik-Objekte, die in den voranstehend beschriebenen Ausführungsformen beschrieben worden sind, sind lauflängencodierte Rasterdaten. Lauflängencodierung wird für die Kompression/Codierung von Grafik-Objekten verwendet, da die Lauflängencodierung für die Kompression und Dekompression von Untertiteln geeignet ist. Untertitel weisen eine Eigenschaft dahingehend auf, dass eine kontinuierliche Länge desselben Pixelwertes in einer horizontalen Richtung relativ lang ist. Dementsprechend kann durch Durchführen von Kompression unter Verwendung der Lauflängencodierung eine hohe Kompressionsrate erzielt werden. Zusätzlich dazu reduziert die Lauflängencodierung eine Last für die Dekompression und ist dementsprechend für das Realisieren der Decodierung durch Software geeignet. Nichtsdestotrotz stellt die Verwendung der Lauflängencodierung für Grafik-Objekte keine Beschränkung der vorliegenden Erfindung dar. So können Grafik-Objekte beispielsweise auch PNG-Daten sein. Darüber hinaus können Grafik-Objekte auch Vektordaten anstelle von Rasterdaten sein. Darüber hinaus können Grafik-Objekte auch transparente Muster sein.
    • (I) Grafiken von Untertiteln, die entsprechend einer Sprachen-Einstellung in der Wiedergabevorrichtung ausgewählt werden, können Anzeigeeffekten von Presentation Composition Segments (PCS) ausgesetzt sein. Als ein Ergebnis können die Anzeigeeffektive, die unter Verwendung von Zeichen, die in dem Körper des Videos in einer herkömmlichen DVD enthalten sind, erzielt werden, mit Untertitel-Grafiken realisiert werden, die entsprechend der Sprachen-Einstellung der Wiedergabevorrichtung angezeigt werden. Dies trägt zu einer hohen Nutzungstauglichkeit bei.
    • Darüber hinaus können Untertitel-Grafiken, die entsprechend einer Anzeigeeinstellung der Wiedergabevorrichtung ausgewählt werden, Anzeigeeffekten von Presentation Composition Segments (PCS) unterliegen. So werden beispielsweise Grafiken von verschiedenen Anzeigemodi, wie beispielsweise Breitbildschirm, Schwenken (pan and scan) und Breitwandformat (Letter-Box) auf die BD-ROM aufgezeichnet, und die Wiedergabevorrichtung wählt einen dieser Anzeigemodi in Übereinstimmung mit einer Anzeigeeinstellung des Fernsehers, der mit der Wiedergabevorrichtung verbunden ist, aus und zeigt die entsprechenden Grafiken an. Da die Anzeigeeffekte von Presentation Composition Segments (PCS) auf solche Grafiken angewendet werden, wird die Betrachtbarkeit erhöht. Als ein Ergebnis können die Anzeigeffekte, die unter Verwendung von Zeichen, die in dem Körper des Videos in einer herkömmlichen DVD enthalten sind, mit Untertitel-Grafiken realisiert werden, in Übereinstimmung mit der Anzeigeeinstellung angezeigt werden. Dies trägt zu einer hohen Nutzungstauglichkeit bei.
    • (J) Die erste Ausführungsform beschreibt einen Fall, in dem die Sendegeschwindigkeit Rc von dem Objekt-Puffer zu der Grafikebene so eingestellt wird, dass die Grafikebene gelöscht wird und Grafiken in einem Fenster innerhalb eines Video-Rahmens wiedergegeben werden, das 25% der Größe der Grafikebene aufweist. Die Sendegeschwindigkeit kann jedoch auch so eingestellt werden, dass das Löschen und Wiedergeben (Rendering) innerhalb einer vertikalen Austastzeit abgeschlossen werden. Hierbei sei angenommen, dass die vertikale Austastzeit 25% von 1/29,97 Sekunden beträgt. Dann ist Rc 1 Gbps. Durch Einstellen der Sendegeschwindigkeit auf diese Weise können Grafiken gleichmäßig angezeigt werden.
    • Darüber hinaus kann das Schreiben in Synchronisation mit dem Zeilenabtasten zusammen mit dem Schreiben innerhalb einer vertikalen Austastzeit verwendet werden. Dadurch können Untertitel gleichmäßig mit einer Sendegeschwindigkeit von Rc = 256 Mbps angezeigt werden.
    • (K) Die voranstehend beschriebenen Ausführungsformen beschreiben einen Fall, in dem die Wiedergabevorrichtung die Grafikebene enthält. Alternativ dazu kann die Wiedergabevorrichtung einen Zeilen-Puffer zum Speichern unkomprimierter Pixel einer Zeile enthalten. Da die Umwandlung in ein Bildsignal für jede horizontale Reihe (Zeile) durchgeführt wird, kann die Umwandlung in ein Bildsignal gleichermaßen mit dem Zeilen-Puffer durchgeführt werden.
    • (L) Die voranstehend beschriebenen Ausführungsformen beschreiben den Fall, in dem Grafiken Zeichenfolgen sind, die Dialoge in einem Film darstellen. Die Grafiken können jedoch auch eine Kombination aus Figuren, Buchstaben und Farben, die ein Warenzeichen, ein Landeswappen, eine Landesflagge, ein Landesemblem, ein staatliches Symbol oder ein Siegel, das durch eine Staatsregierung zur Kontrolle/Zertifizierung verwendet wird, ein Wappen, eine Flagge oder ein Emblem einer internationalen Organisation oder eine Herkunftsmarkierung eines bestimmten Artikels umfassen.
    • (M) Die erste Ausführungsform beschreibt einen Fall, in dem ein Fenster oben oder unten in der Grafikebene vorhanden ist, basierend auf der Annahme, dass Untertitel horizontal im oberen oder unteren Teil des Bildschirms angezeigt werden. Stattdessen kann ein Fenster auch links oder rechts in der Grafikebene vorhanden sein, um Untertitel vertikal auf der linken oder der rechten Seite des Bildschirms anzuzeigen. Dadurch können japanische Untertitel vertikal angezeigt werden.
    • (O) Die Grafik-Decodiereinrichtung führt eine Pipeline-Verarbeitung an den Anzeigesätzen DSn und DSn + 1 durch, wenn DSn und DSn + 1 zu demselben Zeitraum (Epoch) in dem Grafik-Strom gehören. Wenn die Anzeigesätze DSn und DSn + 1 zu verschiedenen Zeiträumen gehören, startet im Gegensatz dazu die Grafik-Decodiereinrichtung die Verarbeitung des Anzeigesatzes DSn + 1, nachdem die Anzeige der Grafiken des Anzeigesatzes DSn beginnt.
  • Des Weiteren gibt es zwei Typen von Grafik-Strömen, das heißt, einen Darstellungs-Grafik-Strom, der hauptsächlich für das Synchronisieren mit Video vorgesehen ist, sowie einen interaktiven Grafik-Strom, der hauptsächlich zum Realisieren einer interaktiven Anzeige vorgesehen ist. Die Grafik-Decodiereinrichtung führt eine Pipeline-Verarbeitung der Anzeigesätze DSn und DSn + 1 durch, wenn es sich bei dem Grafik-Strom um einen Darstellungs-Grafik-Strom handelt, und sie führt keine Pipeline-Verarbeitung durch, wenn es sich bei dem Grafik-Strom um einen interaktiven Grafik-Strom handelt.
  • Die vorliegende Erfindung kann so modifiziert werden, wie dies voranstehend beschrieben wurde. Dennoch spiegelt die Erfindung eines jeden der Ansprüche dieser Anmeldung eine Vorrichtung zum Lösen des technisches Problems wider, dem sich die herkömmlichen Verfahren gegenübersehen, so dass der technische Umfang der Erfindung entsprechend der Ansprüche nicht über den technischen Umfang gehen wird, in dem eine Person mit der gewöhnlichen Erfahrung auf dem Gebiet der Technik das technische Problem erkennt. Demzufolge entspricht die Erfindung entsprechend den Ansprüchen im Wesentlichen der Beschreibung der Spezifizierung.
  • INDUSTRIELLE ANWENDBARKEIT
  • Die voranstehend beschriebenen Ausführungsformen offenbaren die internen Konfigura tionen des Aufzeichnungsmediums und der Wiedergabevorrichtung, die die vorliegende Erfindung betrifft, und das Aufzeichnungsmedium kann auf Basis der offenbarten internen Konfigurationen in großen Mengen hergestellt werden. Mit anderen Worten bedeutet dies, dass das Aufzeichnungsmedium und die Wiedergabevorrichtung industriell hergestellt werden können. Demzufolge besitzen das Aufzeichnungsmedium und die Wiedergabevorrichtung eine industrielle Anwendbarkeit.

Claims (10)

  1. Aufzeichnungsmedium, das zum Speichern von Daten verwendet wird, wobei es umfasst: einen digitalen Strom, der erzeugt wird, indem ein Video-Strom und ein Grafik-Strom Multiplexen unterzogen werden, wobei: der Grafik-Strom eine Vielzahl von Anzeigesätzen (DSn; DS1, DS2, DS3- 9) enthält; der Anzeigesatz eine Gruppe von Segmenten ist, die aus einer Vielzahl von Segmenten gruppiert werden, die den Grafik-Strom bilden; der Anzeigesatz ein PCS (Presentation Composition Segment), ein ODS (Object Definiton Segment) zum Definieren von Grafik-Objekten sowie ein END-Segment enthält; das ODS ein Grafik-Objekt definiert und eine Kennung der Grafik-Objekte sowie Lauflängendaten enthält, die das Grafik-Objekt bilden; das PCS eine Information ist, die eine Bildschirmzusammensetzung auf einer Anzeigeeinrichtung angibt, und Koordinaten eines Grafik-Objektes auf einer Grafikebene sowie Zeitinformationen aufweist, wobei die Zeitinformationen eine aktive Periode des PCS in dem Anzeigesatz auf einer Wiedergabe-Zeitachse des Video-Stroms bezeichnen und die aktive Periode von einer Decodier-Anfangszeit (DTS) des PCS in dem Anzeigesatz bis zu einer Anzeige-Anfangszeit (PTS) des PCS reicht, die Darstellung des Anzeigesatz zeigt; das END-Segment zeigt, dass Senden der Segmente abgeschlossen ist, die den Anzeigesatz bilden; jedes Segment in einem Paket enthalten ist; die Zeitinformationen einen Decodier-Zeitstempel (DTS-17b, 17c) und einen Darstellungs-Zeitstempel (PTS-17b, 17c) enthalten, die in ein Paket geschrieben sind; dadurch gekennzeichnet, dass wenn eine aktive Periode eines PCS in einem Anzeigesatz DSn + 1 eine aktive Periode eines PCS in einem unmittelbar vorangehenden Anzeigesatz DSn überlappt, PTS (DSn[ODSlast]), das ein Darstellungs-Zeitstempel eines Paketes ist, das ein letztes ODS (ODSlast) in dem unmittelbar vorangehenden Anzeigesatz (DSn) enthält, eine Zeit bezeichnet, zu der während der aktiven Periode des PCS in dem unmittelbar vorangehenden Anzeigesatz DSn Übertragung eines Grafik-Objektes, das durch Decodieren in dem unmittelbar vorangehenden Anzeigesatz DSn erzeugt wird, abgeschlossen ist und eine Beziehung PTS(DSn[END]) = PTS(DSn[ODSlast])mit PTS(DSn[END]) erfüllt, das ein Darstellungs-Zeitstempel eines Paketes ist, das ein END-Segment in dem unmittelbar vorangehenden Anzeigesatz DSn enthält, und DTS(DSn + 1[PCS]), das ein Decodier-Zeitstempel eines Paketes ist, das das PCS in dem Anzeigesatz DSn + 1 enthält, eine Anfangszeit der aktiven Periode des PCS in dem Anzeigesatz DSn + 1 bezeichnet, eine Beziehung PTS(DSn[End]) <= DTS(DSb + 1[PCS])mit PTS(DSn[End]) erfüllt.
  2. Aufzeichnungsmedium nach Anspruch 1, wobei: die aktive Periode des PCS in dem Anzeigesatz von einer Decodier-Anfangszeit des PCS in dem Anzeigesatz bis zu einer Anzeige-Anfangszeit der Grafik-Anzeige reicht, die auf Basis des PCS in dem Anzeigesatz zusammengesetzt wird.
  3. Aufzeichnungsmedium nach Anspruch 2, wobei: das PCS in dem Anzeigesatz am Beginn des Anzeigesatzes vorhanden ist und der Decodier-Zeitstempel des Paketes, das das PCS in dem Anzeigesatz enthält, die Decodier-Anfangszeit des PCS in dem Anzeigesatz zeigt und der Darstellungs-Zeitstempel des Paketes, das das PCS in dem Anzeigesatz enthält, die Anzeige-Anfangszeit der Grafik-Anzeige zeigt, die auf Basis des PCS in dem Anzeigesatz zusammengesetzt wird.
  4. Wiedergabevorrichtung zum Lesen eines digitalen Stroms von einem Aufzeichnungsmedium nach Anspruch 1 und zum Wiedergeben des digitalen Stroms, wobei die Wiedergabevorrichtung umfasst: eine Video-Decodiereinrichtung (5), die so betätigt werden kann, dass sie den Video-Strom decodiert, um ein sich bewegendes Bild zu erzeugen; und eine Grafik-Decodiereinrichtung (12), die so betrieben werden kann, dass sie den Grafik-Strom decodiert, um ein Grafik-Objekt zu erzeugen, wobei: die Grafik-Decodiereinrichtung (12) Pipeline-Verarbeitung durchführt, indem sie mit der Verarbeitung des Anzeigesatzes DSn + 1 zu oder nach einer Zeit beginnt, zur der während der aktiven Periode des PCS in dem unmittelbar vorangehenden Anzeigesatz DSn die Übertragung des Grafik-Objektes, das durch Decodieren in dem unmittelbar vorangehenden Anzeigesatz DSn erzeugt wird, zu einem Puffer abgeschlossen ist, beginnt.
  5. Wiedergabevorrichtung nach Anspruch 4, wobei: der Puffer ein Objekt-Puffer (15) zum Speichern eines durch Decodieren erzeugten Grafik-Objektes ist; die Grafik-Decodiereinrichtung (12) enthält: einen Prozessor (14), der so betrieben werden kann, dass er das ODS in dem Anzeigesatz decodiert, um das Grafik-Objekt zu erzeugen, und das Grafik-Objekt zu dem Objekt-Puffer (15) überträgt; und einen Controller (17), der so betrieben werden kann, dass er ein Grafik-Objekt aus dem Objekt-Puffer auf Basis des PCS in dem Anzeigesatz liest und das gelesene Grafik-Objekt sowie das sich bewegende Bilde übereinander legt; und bei der Pipeline-Verarbeitung der Prozessor (14) das durch Decodieren in dem Anzeigesatz DSn + 1 erzeugte Grafik-Objekt zu dem Objekt-Puffer (15) überträgt, während der Controller (17) gleichzeitig das Grafik-Objekt auf Basis des PCS in dem unmittelbar vorangehenden Anzeigesatz DSn aus dem Objekt-Puffer (15) liest.
  6. Wiedergabevorrichtung nach Anspruch 4, wobei: die Grafik-Decodiereinrichtung (12) das PCS decodiert und entsprechend einem Decodierergebnis des PCS das Grafik-Objekt aus dem Objekt-Puffer (15) liest und das gelesene Grafik-Objekt anzeigt.
  7. Wiedergabevorrichtung nach Anspruch 6, wobei: die Grafik-Decodiereinrichtung (12) zu einer Zeit, die durch einen Decodier-Zeitstempel gezeigt wird, der in ein Paket geschrieben ist, das das PCS enthält, beginnt, das PCS zu decodieren und zu einer Zeit, die durch einen Darstellungs-Zeitstempel gezeigt wird, der in das Paket geschrieben ist, das das PCS enthält, beginnt, das Grafik-Objekt anzuzeigen.
  8. Verfahren zum Aufzeichnen auf ein Aufzeichnungsmedium (100), das die folgenden Schritte umfasst: Erzeugen von Anwendungsdaten; und Aufzeichnen der Anwendungsdaten auf das Aufzeichnungsmedium, wobei: die Anwendungsdaten einen digitalen Strom erzeugen, der durch Multiplexen eines Video-Stroms und eines Grafik-Stroms erzeugt wird; der Grafik-Strom eine Vielzahl von Anzeigesätzen (DSn; DS1, DS2, DS3-9) enthält; der Anzeigesatz eine Gruppe von Segmenten ist, die verwendet werden, um einen Grafik-Bildschirm zu schaffen, wobei die Segmente aus einer Vielzahl von Segmenten gruppiert werden, die den Grafik-Strom bilden; der Anzeigesatz ein PCS (Presentation Composition Segment), ein ODS (Object Definition Segment) zum Definieren von Grafik-Objekten und ein END-Segment enthält; das ODS ein Grafik-Objekt definiert und eine Kennung der Grafik-Objekte sowie Lauflängendaten enthält, die das Grafik-Objekt bilden; das PCS eine Information ist, die eine Bildschirmzusammensetzung auf einer Anzeigeeinrichtung angibt, und Koordinaten eines Grafik-Objektes auf einer Grafik-Ebene sowie Zeitinformationen aufweist, wobei die Zeitinformationen eine aktive Periode des PCS in dem Anzeigesatz auf einer Wiedergabe-Zeitachse des Video-Stroms bezeichnen und die aktive Periode von einer Decodier-Anfangszeit (PTS) des PCS in dem Anzeigesatz bis zu einer Anzeige-Anfangszeit (PTS) des PCS reicht, die Darstellung des Anzeigesatzes zeigt; das END-Segment zeigt, dass Senden der Segmente abgeschlossen ist, die den Anzeigesatz bilden; jedes Segment in einem Paket enthalten ist; die Zeitinformationen einen Decodier-Zeitstempel und einen Darstellungs-Zeitstempel enthält, die in ein Paket geschrieben sind; dadurch gekennzeichnet, dass wenn eine aktive Periode eines PCS in einem Anzeigesatz DSn + 1 eine aktive Periode eines PCS in einem unmittelbaren vorangehenden Anzeigesatz DSn überlappt, PTS(DSn[ODSlast)], das ein Darstellungs-Zeitstempel eines Paketes ist, das ein letztes ODS (ODSlast) in dem unmittelbar vorangehenden Anzeigesatz DSn enthält, eine Zeit bezeichnet, zu der während der aktiven Periode des PCS in dem unmittelbar vorangehenden Anzeigesatz DSn Übertragung eines Grafik-Objektes, das durch Decodieren in dem unmittelbar vorangehenden Anzeigesatz erzeugt wird, abgeschlossen ist, und eine Beziehung PTS(DSn[End]) = PTS(DSn[ODSlast])mit PTS(DSn[End]) erfüllt, das ein Darstellungs-Zeitstempel eines Paketes ist, das ein END-Segment in dem unmittelbar vorangehenden Anzeigesatz DSn enthält, und DTS(DSn + 1[PCS]), das ein Decodier-Zeitstempel eines Paketes ist, das das PCS in dem Anzeigesatz DSn + 1 enthält, eine Anfangszeit der aktiven Periode des PCS in dem Anzeigesatz DSn + 1 bezeichnet, eine Beziehung PTS(DSn[End]) <= DTS(DSn + 1[PCS])mit PTS(DSn[End]) erfüllt.
  9. Computerlesbares Programm, dass dazu dient, einen Computer in die Lage zu versetzten, einen digitalen Strom von einem Aufzeichnungsmedium (100) nach Anspruch 1 zu lesen und den digitalen Strom wiederzugeben. wobei das Programm den Computer in die Lage versetzt, die folgenden Schritte durchzuführen: Decodieren des Video-Stroms, um ein sich bewegendes Bild zu erzeugen, und Decodieren des Grafik-Stroms, um eine Grafik-Objekt zu erzeugen, wobei: der Schritt des Decodierens des Grafik-Stroms Pipeline-Verarbeitung entsprechend Zeitinformationen durchführt, die in einem PCS jedes Anzeigesatzes enthalten sind, indem Verarbeitung des Anzeigesatzes DSn + 1 zu oder nach einer Zeit begonnen wird, zu der während der aktiven Periode des PCS in dem unmittelbar vorangehenden Anzeigesatz DSn die Übertragung des Grafik-Objektes, das durch Decodieren in dem unmittelbar vorangehenden Anzeigesatz DSn erzeugt wird, zu dem Puffer abgeschlossen ist.
  10. Verfahren zum Lesen eines digitalen Stroms von einem Aufzeichnungsmedium nach Anspruch 1, und zum Wiedergeben des digitalen Stroms, wobei das Verfahren die folgenden Schritte umfasst: Decodieren des Video-Stroms, um ein sich bewegendes Bild zu erzeugen; und Decodieren des Grafik-Stroms, um ein Grafik-Objekt zu erzeugen, wobei: der Schritt des Decodierens des Grafik-Stroms Pipeline-Verarbeitung gemäß Zeitinformationen durchführt, die in einem PCS jedes Anzeigesatzes enthalten sind, indem Verarbeitung des Anzeigesatzes zu oder nach einer Zeit begonnen wird, zu der während der aktiven Periode des PCS in dem unmittelbar vorangehenden Anzeigesatz DSn die Übertragung des Grafik-Objektes, das durch Decodieren in dem unmittelbar vorangehenden Anzeigesatz DSn erzeugt wird, zu dem Puffer abgeschlossen ist.
DE602004010668T 2003-07-11 2004-07-09 Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, und computerlesbares programm Active DE602004010668T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US48684403P 2003-07-11 2003-07-11
US486844P 2003-07-11
PCT/JP2004/010155 WO2005006747A1 (en) 2003-07-11 2004-07-09 Recording medium, recording method, reproduction apparatus and method, and computer-readable program

Publications (2)

Publication Number Publication Date
DE602004010668D1 DE602004010668D1 (de) 2008-01-24
DE602004010668T2 true DE602004010668T2 (de) 2008-12-04

Family

ID=34062142

Family Applications (6)

Application Number Title Priority Date Filing Date
DE602004022883T Active DE602004022883D1 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium, Aufzeichnungsverfahren, Wiedergabevorrichtung und -verfahren sowie computerlesbares Programm
DE602004022885T Active DE602004022885D1 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium, Aufzeichnungsverfahren, Wiedergabevorrichtung und -verfahren sowie computerlesbares Programm
DE602004022884T Active DE602004022884D1 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium, Aufzeichnungsverfahren, Wiedergabevorrichtung und -verfahren sowie computerlesbares Programm
DE602004022344T Active DE602004022344D1 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium, Aufzeichnungsverfahren, Wiedergabevorrichtung und -verfahren sowie computerlesbares Programm
DE602004010668T Active DE602004010668T2 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, und computerlesbares programm
DE602004008923T Active DE602004008923T2 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, und computerlesbares programm

Family Applications Before (4)

Application Number Title Priority Date Filing Date
DE602004022883T Active DE602004022883D1 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium, Aufzeichnungsverfahren, Wiedergabevorrichtung und -verfahren sowie computerlesbares Programm
DE602004022885T Active DE602004022885D1 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium, Aufzeichnungsverfahren, Wiedergabevorrichtung und -verfahren sowie computerlesbares Programm
DE602004022884T Active DE602004022884D1 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium, Aufzeichnungsverfahren, Wiedergabevorrichtung und -verfahren sowie computerlesbares Programm
DE602004022344T Active DE602004022344D1 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium, Aufzeichnungsverfahren, Wiedergabevorrichtung und -verfahren sowie computerlesbares Programm

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE602004008923T Active DE602004008923T2 (de) 2003-07-11 2004-07-09 Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, und computerlesbares programm

Country Status (8)

Country Link
US (2) US7415192B2 (de)
EP (2) EP1645124B1 (de)
JP (8) JP4048224B2 (de)
KR (7) KR101051835B1 (de)
CN (6) CN101202930B (de)
DE (6) DE602004022883D1 (de)
TW (6) TWI363335B (de)
WO (2) WO2005006747A1 (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003083133A1 (fr) 2002-03-29 2003-10-09 Asahi Kasei Pharma Corporation Methode de detection d'une intolerance legere au glucose ou d'une hyposecretion d'insuline
EP1649382B1 (de) * 2003-07-31 2016-11-30 Samsung Electronics Co., Ltd. Informationsspeichermedium, das graphische daten speichert und vorrichtung und verfahren zum verarbeiten der graphischen daten
KR100739676B1 (ko) 2003-07-31 2007-07-13 삼성전자주식회사 그래픽 데이터를 포함하는 정보저장매체, 그 처리장치 및처리방법
KR100561417B1 (ko) * 2004-02-09 2006-03-16 삼성전자주식회사 Av 데이터의 재생상태를 전환할 수 있는 인터랙티브그래픽 스트림을 기록한 정보저장매체, 그 재생방법 및 장치
CN101241744B (zh) 2004-03-26 2012-09-12 Lg电子株式会社 用于再现记录在记录介质上的文本字幕流的记录介质、方法和装置
RU2378722C2 (ru) 2004-03-26 2010-01-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров
US8249416B2 (en) * 2005-01-28 2012-08-21 Panasonic Corporation Recording medium, program, and reproduction method
EP2105032A2 (de) 2006-10-11 2009-09-30 Koninklijke Philips Electronics N.V. Erzeugung dreidimensionaler grafikdaten
CN101542622A (zh) * 2007-02-28 2009-09-23 松下电器产业株式会社 再现装置、再现方法、***大规模集成电路
US8717355B2 (en) 2007-12-26 2014-05-06 Koninklijke Philips N.V. Image processor for overlaying a graphics object
CN102100076B (zh) * 2008-07-24 2013-06-12 松下电器产业株式会社 能够进行立体视觉再生的再生装置、再生方法
JP4985807B2 (ja) * 2009-04-15 2012-07-25 ソニー株式会社 再生装置および再生方法
KR101537615B1 (ko) * 2009-07-17 2015-07-17 엘지전자 주식회사 기록매체, 데이터 기록/재생 방법 및 데이터 기록/재생 장치
CN103202015B (zh) * 2010-09-30 2016-08-03 富士通株式会社 动态图像加密装置及动态图像加密方法
CN103152654A (zh) * 2013-03-15 2013-06-12 杭州智屏软件有限公司 低延迟的视频片段截取技术
JP6844112B2 (ja) * 2016-03-17 2021-03-17 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2173355A1 (en) 1993-06-09 1994-12-22 Andreas Richter Method and apparatus for multiple media digital communication system
DE69423418T2 (de) * 1993-11-02 2000-09-21 Texas Instruments Inc Vorrichtung und Verfahren für graphische Daten für Fernsehempfänger
AU701684B2 (en) * 1994-12-14 1999-02-04 Koninklijke Philips Electronics N.V. Subtitling transmission system
JP3528989B2 (ja) * 1995-01-20 2004-05-24 ソニー株式会社 データ多重化装置、データ多重化方法、多重化データ処理装置および多重化データ処理方法
TW293981B (de) 1995-07-21 1996-12-21 Philips Electronics Nv
EP0788094A4 (de) * 1995-08-21 1998-06-24 Matsushita Electric Ind Co Ltd Multimedia optische platte, mit welcher durch interaktive steuerung vollständig unerwarteten szenen erzeugt werden können, deren wiedergabegerät und wiedergabeverfahren
WO1997013365A1 (fr) 1995-09-29 1997-04-10 Matsushita Electric Industrial Co., Ltd. Procede et dispositif d'enregistrement et de reproduction de train binaire intercale sur et a partir d'un support
TW436777B (en) * 1995-09-29 2001-05-28 Matsushita Electric Ind Co Ltd A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
TW385431B (en) 1995-09-29 2000-03-21 Matsushita Electric Ind Co Ltd A method and an apparatus for encoding a bitstream with plural possible searching reproduction paths information useful in multimedia optical disk
US5838316A (en) 1996-01-26 1998-11-17 International Business Machines Corporation Method and system for presenting a plurality of animated display objects to a user for selection on a graphical user interface in a data processing system
TW334563B (en) 1996-02-28 1998-06-21 Matsushita Denki A method for recording interleaving bistream on a recording medium
JP3728344B2 (ja) 1996-03-22 2005-12-21 パイオニア株式会社 情報再生装置及び情報再生方法
JP3345414B2 (ja) * 1996-05-09 2002-11-18 松下電器産業株式会社 主映像が画面上にどのように配置されようとも、副映像をバランス良く主映像上に重ね合わせることができる記録媒体、再生装置、及び再生方法。
US5929857A (en) * 1997-09-10 1999-07-27 Oak Technology, Inc. Method and apparatus for dynamically constructing a graphic user interface from a DVD data stream
JP3407287B2 (ja) * 1997-12-22 2003-05-19 日本電気株式会社 符号化復号システム
US6526214B2 (en) 1998-04-13 2003-02-25 Oak Technology, Inc. DVD sub-picture decoder with minimal buffering
US7889964B1 (en) * 1998-07-30 2011-02-15 Tivo Inc. Closed caption tagging system
JP3058870B1 (ja) 1999-02-05 2000-07-04 株式会社次世代デジタルテレビジョン放送システム研究所 Afc回路
JP3805985B2 (ja) 1999-02-18 2006-08-09 株式会社東芝 ストリームデータの情報記憶媒体、その記録方法、再生方法、記録装置および再生装置
EP1035735A3 (de) * 1999-03-12 2007-09-05 Kabushiki Kaisha Toshiba Bewegtbildkoder und -dekoder optimiert für die Echtzeitprotokollanwendung (RTP)
JP3363407B2 (ja) * 1999-08-17 2003-01-08 株式会社第一興商 歌詞字幕表示装置
KR100657241B1 (ko) 1999-09-03 2006-12-18 삼성전자주식회사 동영상 기록/재생 장치와 방법 및 기록 매체
GB0007870D0 (en) 2000-03-31 2000-05-17 Koninkl Philips Electronics Nv Methods and apparatus for making and replauing digital video recordings, and recordings made by such methods
AU5708601A (en) 2000-04-17 2001-10-30 James E Rothman Javelinization of protein antigens to heat shock proteins
EP1173031A1 (de) * 2000-07-14 2002-01-16 Deutsche Thomson-Brandt Gmbh Verfahren und Vorrichtung zur Aufnahme von Untertiteln
US7068719B2 (en) 2001-06-01 2006-06-27 General Instrument Corporation Splicing of digital video transport streams
JP2002374494A (ja) 2001-06-14 2002-12-26 Fuji Electric Co Ltd ビデオコンテンツファイル生成システムおよびビデオコンテンツファイル検索方法。
JP3871123B2 (ja) 2001-06-16 2007-01-24 三星電子株式会社 プリロードフォント情報を有する情報貯蔵媒体、その再生装置及び再生方法
DE10130156B4 (de) 2001-06-22 2013-08-08 Qimonda Ag Verfahren und System zur bidirektionalen Signalübertragung
PL367241A1 (en) 2001-11-30 2005-02-21 Matsushita Electric Industrial Co, Ltd. A method and an apparatus for stream conversion, a method and an apparatus for data recording, and data recording medium
JP4061567B2 (ja) 2001-12-03 2008-03-19 松下電器産業株式会社 Dvdオーディオ再生装置、及びdvdオーディオ再生方法
JP4136383B2 (ja) * 2002-01-28 2008-08-20 キヤノン株式会社 テレビ受信装置及びその制御方法
ATE547792T1 (de) * 2002-10-15 2012-03-15 Lg Electronics Inc Aufzeichnungsmedium mit einer datenstruktur zur verwaltung der wiedergabe mehrerer darauf aufgezeichneter grafikströme und aufzeichnungs- und wiedergabeverfahren und vorrichtungen
US20040213542A1 (en) * 2003-04-22 2004-10-28 Hiroshi Hamasaka Apparatus and method to reproduce multimedia content for a multitude of resolution displays
CN101582983B (zh) * 2003-04-28 2014-01-22 松下电器产业株式会社 记录介质和方法、再现装置和方法、程序和集成电路
DE602004028673D1 (de) * 2003-06-30 2010-09-23 Panasonic Corp Aufzeichnungsmedium, Wiedergabegerät, Aufzeichnungsverfahren, Programm und Wiedergabeverfahren
KR20050004339A (ko) * 2003-07-02 2005-01-12 엘지전자 주식회사 고밀도 광디스크의 그래픽 데이터 관리방법 및 그에 따른고밀도 광디스크

Also Published As

Publication number Publication date
KR100882079B1 (ko) 2009-02-10
US20090016705A1 (en) 2009-01-15
CN1849821A (zh) 2006-10-18
JP2007534182A (ja) 2007-11-22
CN101217676A (zh) 2008-07-09
KR20100132081A (ko) 2010-12-16
TW201115569A (en) 2011-05-01
CN101202091A (zh) 2008-06-18
US20060222334A1 (en) 2006-10-05
US7415192B2 (en) 2008-08-19
KR100882078B1 (ko) 2009-02-10
US8139915B2 (en) 2012-03-20
KR20070107763A (ko) 2007-11-07
CN101217676B (zh) 2010-09-01
TWI405201B (zh) 2013-08-11
WO2005006747A1 (en) 2005-01-20
TW200511277A (en) 2005-03-16
TW200506839A (en) 2005-02-16
DE602004010668D1 (de) 2008-01-24
JP4020952B2 (ja) 2007-12-12
JP4048224B2 (ja) 2008-02-20
KR20070107764A (ko) 2007-11-07
CN1849820A (zh) 2006-10-18
KR100882077B1 (ko) 2009-02-10
EP1645124B1 (de) 2007-12-12
EP1645123B1 (de) 2007-09-12
CN101202091B (zh) 2012-11-28
CN101202930A (zh) 2008-06-18
DE602004008923T2 (de) 2008-01-17
CN101217675B (zh) 2011-05-04
KR100882076B1 (ko) 2009-02-10
TWI405199B (zh) 2013-08-11
JP4126076B2 (ja) 2008-07-30
JP2007306579A (ja) 2007-11-22
TW201115570A (en) 2011-05-01
WO2005006746A1 (en) 2005-01-20
KR20070108243A (ko) 2007-11-08
JP2007329941A (ja) 2007-12-20
DE602004008923D1 (de) 2007-10-25
TWI405202B (zh) 2013-08-11
DE602004022883D1 (de) 2009-10-08
EP1645123A1 (de) 2006-04-12
KR101037025B1 (ko) 2011-05-25
TWI405200B (zh) 2013-08-11
KR100882075B1 (ko) 2009-02-10
CN101202930B (zh) 2010-09-22
KR20060041216A (ko) 2006-05-11
EP1645124A1 (de) 2006-04-12
CN1849821B (zh) 2012-06-20
JP4510854B2 (ja) 2010-07-28
KR20060039429A (ko) 2006-05-08
CN100576900C (zh) 2009-12-30
JP4126078B2 (ja) 2008-07-30
JP2007312396A (ja) 2007-11-29
KR101051835B1 (ko) 2011-07-25
DE602004022344D1 (de) 2009-09-10
JP2007273081A (ja) 2007-10-18
JP4126075B2 (ja) 2008-07-30
JP4126077B2 (ja) 2008-07-30
TW201115567A (en) 2011-05-01
TWI345232B (en) 2011-07-11
DE602004022885D1 (de) 2009-10-08
CN101217675A (zh) 2008-07-09
TWI363335B (en) 2012-05-01
TW201115568A (en) 2011-05-01
DE602004022884D1 (de) 2009-10-08
KR20070108244A (ko) 2007-11-08
JP2007528567A (ja) 2007-10-11
JP4569931B2 (ja) 2010-10-27
JP2008072726A (ja) 2008-03-27
JP2007273080A (ja) 2007-10-18

Similar Documents

Publication Publication Date Title
US7680394B2 (en) Recording medium, recording method, reproduction apparatus and method, and computer-readable program
DE602004008922T2 (de) Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, integrierte schaltung und programm
DE602004010668T2 (de) Aufzeichnungsmedium und -verfahren, wiedergabegerät und -verfahren, und computerlesbares programm
DE602004013006T2 (de) Wiedergabegerät, programm und wiedergabeverfahren
DE602004013430T2 (de) Aufzeichnungsmedium, wiedergabevorrichtung, aufzeichnungsverfahren, programm und wiedergabeverfahren
DE10393469T5 (de) Optische Platte, Wiedergabevorrichtung, Programm, Wiedergabeverfahren und Aufzeichnungsverfahren
US8121463B2 (en) Recording medium, recording method, reproduction apparatus and method, and computer-readable program
EP1852868B1 (de) Aufzeichnungsmedium, Aufzeichnungsverfahren, Wiedergabevorrichtung und -verfahren sowie computerlesbares Programm

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP