DE69602371T2 - Verfahren zur kodierung eines nahtlosen verbindungssystems eines bitstroms - Google Patents

Verfahren zur kodierung eines nahtlosen verbindungssystems eines bitstroms

Info

Publication number
DE69602371T2
DE69602371T2 DE69602371T DE69602371T DE69602371T2 DE 69602371 T2 DE69602371 T2 DE 69602371T2 DE 69602371 T DE69602371 T DE 69602371T DE 69602371 T DE69602371 T DE 69602371T DE 69602371 T2 DE69602371 T2 DE 69602371T2
Authority
DE
Germany
Prior art keywords
audio
video
stream
data
vob
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69602371T
Other languages
English (en)
Other versions
DE69602371D1 (de
Inventor
Hiroshi Hamasaka
Takumi Hasebe
Hideshi Ishihara
Yoshihiro Mori
Kazuhiko Nakamura
Tomoyuki Okada
Kazuhiro Tsuga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69602371D1 publication Critical patent/DE69602371D1/de
Publication of DE69602371T2 publication Critical patent/DE69602371T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B20/1217Formatting, e.g. arrangement of data block or words on the record carriers on discs
    • G11B20/1251Formatting, e.g. arrangement of data block or words on the record carriers on discs for continuous data, e.g. digitised analog information signals, pulse code modulated [PCM] data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9206Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal
    • H04N5/9208Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal involving the use of subcodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9261Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction
    • H04N5/9262Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9265Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal
    • H04N5/9267Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B2020/10935Digital recording or reproducing wherein a time constraint must be met
    • G11B2020/10944Real-time recording or reproducing, e.g. for ensuring seamless playback of AV data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/23Disc-shaped record carriers characterised in that the disc has a specific layer structure
    • G11B2220/235Multilayer discs, i.e. multiple recording layers accessed from the same side
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/23Disc-shaped record carriers characterised in that the disc has a specific layer structure
    • G11B2220/235Multilayer discs, i.e. multiple recording layers accessed from the same side
    • G11B2220/237Multilayer discs, i.e. multiple recording layers accessed from the same side having exactly two recording layers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/007Arrangement of the information on the record carrier, e.g. form of tracks, actual track shape, e.g. wobbled, or cross-section, e.g. v-shaped; Sequential information structures, e.g. sectoring or header formats within a track
    • G11B7/00745Sectoring or header formats within a track
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/12Heads, e.g. forming of the optical beam spot or modulation of the optical beam
    • G11B7/14Heads, e.g. forming of the optical beam spot or modulation of the optical beam specially adapted to record on, or to reproduce from, more than one track simultaneously

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Description

    Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Systemkodieren von Bitströmen zum unterbrechungsfreien Verbinden davon und insbesondere von Bitströmen für die Verwendung in einem Autorensystem zur variablen Verarbeitung eines Daten-Bitstromes mit den Videodaten, Audiodaten und Sub-Bild-Daten, die jeweils mehrere Programmtitel mit zugehörigem Videodaten-, Audiodaten- und Sub-Bild-Daten-Inhalt zum Erzeugen eines Bitstromes beinhalten, aus welchem ein neuer Titel mit dem vom Benutzer gewünschten Inhalt wiedergegeben werden kann, und effizientes Aufzeichnen und Wiedergeben des erzeugten Bitstromes unter Verwendung eines besonderen Aufzeichnungsmediums.
  • Stand der Technik
  • Zum Erzeugen von Programmtiteln mit zugehörigen Videodaten, Audiodaten und Sub-Bild-Daten durch digitale Verarbeitung verwendete Autorensysteme, z. B. Multimedia-Daten in Laser-Disk- oder Video-CD-Formaten aufgezeichneten Video-, Audio- und Sub-Bild-Daten sind gegenwärtig verfügbar.
  • Video-CDs verwendende Systeme sind insbesondere in der Lage, Videodaten auf einer CD-Format-Disk aufzuzeichnen, welche ursprünglich mit etwa 600 MB Aufzeichnungskapazität ausgebildet war, um nur digitale Audiodaten zu speichern, durch Verwendung solcher hocheffizienten Videokompressionstechniken wie MPEG. Als Ergebnis der erhöhten, wirksamen Aufzeichnungskapazität, die unter Verwendung von Datenkompressionstechniken verwirklicht wird, können Karaoke- Titel und andere konventionelle Laser-Disk-Anwendungen allmählich in das Video- CD-Format übertragen werden.
  • Benutzer erwarten heute einen anspruchsvollen Titelinhalt und eine hohe Wiedergabequalität. Um diese Erwartungen zu erfüllen, muß jeder Titel aus Bitströmen mit zunehmend tiefer hierarchischer Struktur aufgebaut sein. Die Datengröße von in Bitströmen geschriebenen Multimediatiteln mit solchen tiefen hierarchischen Strukturen ist jedoch ein zehn- oder mehrfaches größer als die Datengröße weniger komplexer Titel. Das Bedürfnis, kleine Bild-(Titel-)Einzelheiten zu bearbeiten, macht es ebenfalls erforderlich, den Bitstrom unter Verwendung hierarchischer Dateneinheit niedriger Ordnung zu verarbeiten und zu steuern.
  • Daher ist es erforderlich, einen Bitstromaufbau und ein fortgeschrittenes digitales Verarbeitungsverfahren zu entwickeln und zu verbessern, die beide Aufzeichnungs- und Wiedergabefähigkeiten beinhalten, wobei ein großvolumiger, hierarchischer Mehrfachebenen-Digital-Bitstrom auf jeder Ebene der Hierarchie effizient gesteuert werden kann. Ebenfalls benötigt werden eine Vorrichtung zum Ausführen dieses digitalen Verarbeitungsverfahrens und ein Aufzeichnungsmedium, auf welchem der durch die Vorrichtung digital verarbeitete Bitstrom zur Speicherung effizient aufgezeichnet werden kann, und von welchem die aufgezeichnete Information schnell wiedergegeben werden kann.
  • Einrichtungen zum Erhöhen der Speicherkapazität konventioneller optischer Disks wurden weitgehend erforscht, um den Aufzeichnungsmedium-Aspekt dieses Problems anzusprechen. Ein Weg zum Erhöhen der Speicherkapazität der optischen Disk ist, den Punkt-Durchmesser D des optischen (Laser-)Strahles zu verringern. Wenn die Wellenlänge des Laserstrahles I ist und die Apertur der Objektivlinse NA ist, ist der Punkt-Durchmesser D proportional zu I/NA, und die Speicherkapazität kann effizient verbessert werden durch Verringern von I und Erhöhen von NA.
  • Wie zum Beispiel in dem US-Patent 5,235,581 beschrieben, kann jedoch ein durch eine relative Neigung zwischen der Disk-Oberfläche und der optischen Achse des Laserstrahles (nachfolgend "Neigung") bewirktes Koma zunehmen, wenn eine Linse mit großer Apertur (hohe NA) verwendet wird. Um das Neigungsinduzierte Koma zu verhindern, muß der transparente Träger sehr dünn sein. Das Problem ist, daß die mechanische Festigkeit der Disk gering ist, wenn der transparente Träger sehr dünn ist.
  • MPEG 1, das konventionelle Verfahren zum Aufzeichnen und Wiedergeben von Video-, Audio- und Graphik-Signaldaten wurde ebenfalls durch das robustere MPEG2-Verfahren ersetzt, welches große Datenmengen mit einer höheren Geschwindigkeit übertragen kann. Es ist anzumerken, daß das Kompressionsverfahren und das Datenformat des MPEG2-Standards sich etwas von denjenigen des MPEG1 unterscheiden. Der spezifische Inhalt von und die Unterschiede zwischen MPEG1 und MPEG2 sind detailliert in den ISO-11172- und ISO-13818 MPEG-Standards beschrieben und auf eine weitere Beschreibung davon unten wird verzichtet.
  • Es ist jedoch anzumerken, daß, während der Aufbau des kodierten Videostromes in der MPEG2-Spezifikation bestimmt ist, der hierarchische Aufbau des Systemstromes und das Verfahren der Verarbeitung niedriger hierarchischer Ebenen nicht definiert sind.
  • Wie oben beschrieben, ist es daher in einem konventionellen Autorensystem nicht möglich, einen großen Datenstrom mit ausreichenden Informationen zum Erfüllen vieler unterschiedlicher Benutzeranforderungen zu verarbeiten. Auch wenn solch ein Verarbeitungsverfahren verfügbar wäre, könnten die damit aufgezeichneten, verarbeiteten Daten nicht wiederholt verwendet werden, um die Datenredundanz zu verringern, da gegenwärtig kein Aufzeichnungsmedium mit großer Kapazität verfügbar ist, das hochvolumige Bitströme, wie oben beschrieben, effizient aufzeichnen und wiedergeben kann.
  • Insbesondere müssen bestimmte, signifikante Hardware- und Software-Anforderungen erfüllt werden, um einen Bistrom unter Verwendung einer kleineren Dateneinheit als den Titel zu verarbeiten. Diese besonderen Hardware-Anforderungen beinhalten eine signifikante Erhöhung der Speicherkapazität des Aufzeichnungsmediums und eine Erhöhung der Geschwindigkeit der digitalen Verarbeitung; Software-Anforderungen beinhalten das Schaffen eines verbesserten, digitalen Verarbeitungsverfahrens einschließlich eines anspruchsvollen Datenaufbaus.
  • Die Aufgabe der vorliegenden Erfindung ist es daher, ein wirksames Autorensystem zum Steuern eines Multimedia-Daten-Bitstromes mit erweiterten Hardware- und Software-Anforderungen unter Verwendung einer kleineren Dateneinheit als dem Titel anzugeben, um erweiterten Benutzeranforderungen besser gerecht zu werden.
  • Um Daten zwischen mehreren Titeln gemeinsam zu verwenden und dadurch effizient die Kapazität der optischen Disk zu verwenden, ist eine Mehrfachszenen- Steuerung erwünscht, bei welcher mehreren Titeln gemeinsame Szenendaten und die gewünschten Szenen auf der gleichen Zeitbasis aus Mehrfachszenen-Perioden mit mehreren einmal in bestimmten Wiedergabepfaden vorkommenden Szenen frei ausgewählt und wiedergegeben werden können.
  • Wenn jedoch mehrere in einem Wiedergabepfad einmalige Szenen innerhalb der Mehrfachszenen-Periode auf der gleichen Zeitbasis angeordnet sind, müssen die Szenendaten fortlaufend sein. Nicht ausgewählte Mehrfachszenendaten sind daher unvermeidbar zwischen den ausgewählten, gemeinsamen Szenendaten und den ausgewählten Mehrfachszenendaten eingefügt. Das Problem, das hier bei der Wiedergabe von Mehrfachszenendaten geschaffen wird, ist, daß eine Wiedergabe durch diese nicht ausgewählten Szenendaten unterbrochen wird.
  • Wenn eine der Mehrzahl der Szenen mit gemeinsamen Szenendaten verbunden ist unterscheidet sich die Differenz zwischen der Video-Wiedergabezeit und der Audio- Wiedergabezeit in jedem der Wiedergabepfade wegen des Versatzes zwischen der Audio- und der Video-Rahmen-Wiedergabezeiten. Als Ergebnis erfahren die Audio- oder Videopuffer bei der Szenen-Verbindung einen Unterlauf, der bewirkt, daß die Videowiedergabe anhält ("einfriert") oder die Audiowiedergabe anhält ("stumm", "mute"), und somit eine unterbrechungsfreie Verbindung verhindert. Es ist ebenfalls offensichtlich, daß der Unterschied zwischen den Audio- und Video-Wiedergabezeiten einen Puffer-Unterfauf-Zustand bewirken kann, auch wenn gemeinsame Szenendaten 1 : 1 verbunden sind.
  • Die internationale Patentanmeldung WO-A-95/12179 offenbart einen Datenstrom, welcher zwei alternativ wiedergebbare Videodarstellungen enthält. Der in diesem Dokument offenbarte Datenstrom enthält drei Arten von Datenblöcken. Zwei Arten von Datenblöcken gehören zu unterschiedlichen Versionen von Videodarstellungen, während die dritte Art von Datenblock beiden Versionen gemeinsam ist. Wenn eine bestimmte Videoversion abgespielt werden soll, müssen die nicht selektierten Videodateneinheiten übersprungen werden, um zu dem nächsten Block zu gelangen.
  • Die Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren zum Erzeugen eines Systemstromes mit einem Datenaufbau anzugeben, bei welchem Mehrfachszenendaten als ein einzelner Titel natürlich wiedergegeben werden können, ohne daß die Videodarstellung anhält ("einfriert") mit Eins-zu-Eins-, Eins-zu-Vielen- oder Vielen-zu-Vielen-Szenenverbindungen in dem Systemstrom.
  • Um die vorstehend erwähnte Aufgabe zu verwirklichen, beinhaltet ein Bitstrom- Erzeugungsverfahren zum Erzeugen und Aufzeichnen eines Bitstromes auf einer optischen Disk (M), wobei der Bitstrom einen ersten Systemstrom (VOB; SSa) und einen zweiten Systemstrom (VOB; SSb) zur aufeinanderfolgenden und unterbrechungsfreien Wiedergabe in dieser Reihenfolge durch eine vorbestimmte optische Disk-Wiedergabevorrichtung enthält, wobei jeder der ersten und zweiten Systemströme (VOB) Videodaten (SSav, SSbv) und Audiodaten (SSaa, SSba) beinhaltet, welche miteinander verschachtelt sind, und wobei die vorbestimmte Wiedergabevorrichtung für eine optische Disk einen Dekodierer zum Dekodieren der Videodaten (SSav, SSbv) und der Audiodaten (SSaa, SSba) beinhaltet; einen Videopuffer zum vorübergehenden Speichern der Videodaten (SSav, SSbv); und einen Audiopuffer zum vorübergehenden Speichern der Audiodaten (SSaa, SSba), wobei das Verfahren die Schritte umfaßt:
  • (1) Berechnen eines Zeitabschnittes T2 zwischen einem Zeitpunkt, zu welchem in dem zweiten Systemstrom (VOB) enthaltene Videodaten (SSav, SSbv), beginnen, in den Videopuffer eingegeben zu werden, und einem Zeitpunkt, zu welchem Audiodaten (SSaa, SSba), die in dem zweiten Systemstrom (VOB) enthalten sind, beginnen, in den Audiopuffer eingegeben zu werden; und
  • (2) Übertragen eines Endabschnittes der Audiodaten (SSaa, SSba), die in dem ersten Systemstrom (VOB) enthalten sind, mit einer Dauer die gleich oder länger als ein Audio-Rahmen (Af) ist, zu dem Kopf der Audiodaten (SSaa, SSba), die in dem zweiten Systemstrom (VOB) enthalten sind, um T2 gleich oder kürzer als T1 zu machen, wobei T1 die Summe des zum Ausgeben eines von dem Dekodierer dekodierten Audio-Rahmens (Af) aufgewendeten Zeitabschnitts, und des zum Dekodieren und Ausgeben so vieler Audio- Rahmen (Af), wie der Audiopuffer zu speichern in der Lage ist, aufgewendeten Zeit;
  • (3) Bilden des ersten Systemstromes durch Verschachteln der modifizierten Audiodaten und der Videodaten, welche in dem ersten Systemstrom enthalten sind;
  • (4) Bilden des zweiten Systemstromes durch Verschachteln der modifizierten Audiodaten und der Videodaten, welche in dem zweiten System-Datenstrom enthalten sein sollen; und
  • (5) Bilden des Bitstromes durch Anordnen des ersten Systemstromes und des zweiten Systemstromes.
  • Die vorstehend erwähnte Aufgabe wird ebenfalls verwirklicht durch ein Verfahren zum Erzeugen und Aufzeichnen eines Bitstromes auf einer optischen Disk (M), wobei der Bitstrom einen ersten Systemstrom (VOB; SSa) und einen zweiten Systemstrom (VOB; SSb) zur aufeinanderfolgenden und unterbrechungsfreien Wiedergabe in dieser Reihenfolge durch eine vorbestimmte Wiedergabevorrichtung für eine optische Disk umfaßt, wobei jeder der ersten und zweiten Systemströme (VOB) Videodaten (SSav, SSbv) und Audiodaten (SSaa, SSba) beinhaltet, welche miteinander verschachtelt werden, und wobei die vorbestimmte Wiedergabevorrichtung für die optische Disk einen Dekodierer zum Dekodieren der Videodaten (SSav, SSbv) und der Audiodaten (SSaa, SSba) beinhaltet; einen Videopuffer zum vorübergehenden Speichern der Videodaten (SSav, SSbv); und einen Audiopuffer zum vorübergehenden Speichern der Audiodaten (SSaa, SSba), wobei das Verfahren die Schritte umfaßt:
  • (1) Berechnen eines Zeitabschnittes T2 zwischen einem Zeitpunkt, zu welchem Videodaten (SSav, SSbv), die in dem zweiten Systemstrom (VOB) enthalten sein sollen, beginnen, in den Videopuffer eingegeben zu werden, und einem Zeitpunkt, zu welchem Audiodaten (SSaa, SSba), die in dem zweiten Systemstrom (VOB) enthalten sein sollen, beginnen, in den Audiopuffer eingegeben zu werden; und
  • (2) Übertragen eines Kopfabschnittes der Videodaten (SSav, SSbv) des zweiten Systemstromes (VOB) zu einem Endabschnitt des ersten Systemstromes (VOB), wobei der übertragene Kopfabschnitt der Videodaten (SSav, SSbv) eine vorbestimmte Länge aufweist; und Übertragen eines Kopfabschnittes der Audiodaten (SSaa, SSba) des zweiten Systemstromes (VOB) mit einer Dauer gleich oder länger als ein Audio-Rahmen (Af) zu einem Endabschnitt des ersten Systemstromes (VOB), um T2 gleich oder kürzer als T1 zu machen, wobei T1 die Summe des zum Ausgeben eines von dem Dekodierer dekodierten Audio-Rahmens (Af) aufgewendeten Zeitabschnitts, und des zum Dekodieren und Ausgeben so vieler Audio-Rahmen (Af), wie der Audiopuffer zu speichern in der Lage ist, aufgewendeten Zeitabschnittes ist;
  • (3) Aufbauen des ersten Systemstromes durch Verschachteln der modifizierten Audiodaten und der Videodaten, welche in dem ersten Systemstrom enthalten sein sollen;
  • (4) Aufbauen des zweiten Systemstromes durch Verschachteln der modifizierten Audiodaten und der Videodaten, welche in dem zweiten Systemstrom enthalten sein sollen; und
  • (5) Aufbauen des Bitstromes durch Anordnen des ersten Systemstromes und des zweiten Systemstromes.
  • Kurze Beschreibung der Zeichnungen
  • Fig. 1 ist eine Darstellung, die vereinfacht einen Aufbau eines erfindungsgemäßen Multimedia-Bitstromes zeigt;
  • Fig. 2 ist ein Blockschaltbild, welches einen erfindungsgemäßen Autoren- Kodierer zeigt;
  • Fig. 3 ist ein Blockschaltbild, welches einen erfindungsgemäßen Autoren- Dekodierer zeigt;
  • Fig. 4 ist eine Seitenansicht einer optischen Disk, welche den Multimedia- Bitstrom in Fig. 1 speichert;
  • Fig. 5 ist eine vergrößerte Ansicht, die einen von einem Kreis in Fig. 4 umschlossenen Teil zeigt;
  • Fig. 6 ist eine vergrößerte Ansicht, welche einen von einem Kreis in Fig. 5 umschlossenen Teil zeigt;
  • Fig. 7 ist eine Seitenansicht, die eine Variation der optischen Disk in Fig. 4 zeigt;
  • Fig. 8 ist eine Seitenansicht, welche eine weitere Variation der optischen Disk in Fig. 4 zeigt;
  • Fig. 9 ist eine Draufsicht, die ein Beispiel eines auf der Aufzeichnungsoberfläche der optischen Disk in Fig. 4 ausgebildeten Spurpfades zeigt;
  • Fig. 10 ist eine Draufsicht, die ein weiteres Beispiel eines auf der Aufzeichnungsoberfläche der optischen Disk in Fig. 4 ausgebildeten Spurpfades zeigt;
  • Fig. 11 ist eine Diagonalansicht, die vereinfacht ein Beispiel eines auf der optischen Disk in Fig. 7 ausgebildeten Spurpfadmusters zeigt;
  • Fig. 12 ist eine Draufsicht, die ein weiteres Beispiel eines auf der Aufzeichnungsoberfläche auf der optischen Disk in Fig. 7 ausgebildeten Spurpfades zeigt;
  • Fig. 13 ist eine diagonale Ansicht, die vereinfacht ein Beispiel eines auf der optischen Disk in Fig. 8 ausgebildeten Spurpfadmusters zeigt;
  • Fig. 14 ist eine Draufsicht, die ein weiteres Beispiel eines auf der Aufzeichnungsoberfläche der optischen Disk in Fig. 8 ausgebildeten Spurpfades zeigt;
  • Fig. 15 ist ein Flußdiagramm, das Einzelheiten des Dekodierer-Synchronisierungsvorgangs in Fig. 66 zeigt;
  • Fig. 16 ist eine Darstellung, welche vereinfacht den Aufbau eines Multimedia- Bitstromes zur Verwendung bei einem erfindungsgemäßen Digital- Video-Disk-System zeigt;
  • Fig. 17 ist eine Darstellung, die vereinfacht den erfindungsgemäßen, kodierten Videostrom zeigt;
  • Fig. 18 ist eine Darstellung, die vereinfacht einen inneren Aufbau einer Videozone in Fig. 16 zeigt;
  • Fig. 19 ist eine Darstellung, die vereinfacht die erfindungsgemäße Strom-Verwaltungsinformation zeigt;
  • Fig. 20 ist eine Darstellung, die vereinfacht den Aufbau des Navigationspaketes NV in Fig. 17 zeigt;
  • Fig. 21 ist eine Darstellung zum Unterstützen der Erläuterung eines Konzeptes einer erfindungsgemäßen Eltern-Sperr-Wiedergabesteuerung;
  • Fig. 22 ist eine Darstellung, die vereinfacht den bei einem erfindungsgemäßen Digital-Video-Disk-System verwendeten Datenaufbau zeigt;
  • Fig. 23 ist eine Darstellung zum Unterstützen der Erläuterung eines Konzeptes einer erfindungsgemäßen Mehrfachwinkel-Szenensteuerung;
  • Fig. 24 ist eine Darstellung zum Unterstützen der Erläuterung eines Konzeptes einer Mehrfachszenen-Datenverbindung;
  • Fig. 25 istein Blockdiagramm, welches einen erfindungsgemäßen DVD-Kodierer zeigt;
  • Fig. 26 ist ein Blockdiagramm, welches einen erfindungsgemäßen DVD-Dekodierer zeigt;
  • Fig. 27 ist eine Darstellung, die vereinfacht eine durch die Kodierungs- Systemsteuerung in Fig. 25 erzeugte Kodierungs-Informationstabelle zeigt;
  • Fig. 28 ist eine Darstellung, die vereinfacht Kodierungs-Informationstabellen zeigt;
  • Fig. 29 ist eine Darstellung, die vereinfacht von dem Videokodierer in Fig. 25 verwendete Kodierungsparameter zeigt;
  • Fig. 30 ist eine Darstellung, die vereinfacht ein Beispiel der Inhalte der erfindungsgemäßen Programmketteninformation zeigt;
  • Fig. 31 ist eine Darstellung, die vereinfacht ein weiteres Beispiel der Inhalte der erfindungsgemäßen Programmketteninformation zeigt;
  • Fig. 32 ist ein Flußdiagramm, welches den Kodierungsparameter-Erzeugungsvorgang für einen Systemstrom mit einer Einzelszene zeigt;
  • Fig. 33 ist eine Darstellung zum Unterstützen der Erläuterung eines Konzeptes einer erfindungsgemäßen Mehrfachwinkel-Szenensteuerung;
  • Fig. 34 ist ein aus den Fig. 34A und 34B gebildetes Flußdiagramm, welches die Wirkungsweise des DVD-Kodierers in Fig. 25 zeigt;
  • Fig. 35 ist ein Flußdiagramm, welches detailliert die Kodierungsparameter- Erzeugungs-Unterroutine in Fig. 34 zeigt;
  • Fig. 36 ist ein Flußdiagramm, welches detailliert die VOB-Dateneinstellroutine in Fig. 35 zeigt;
  • Fig. 37 ist ein Flußdiagramm, welches den Kodierungsparameter-Erzeugungsvorgang für eine unterbrechungsfreie Umschaltung zeigt;
  • Fig. 38 ist ein Flußdiagramm, welches den Kodierungsparameter-Erzeugungsvorgang für einen Systemstrom zeigt;
  • Fig. 39 ist eine Darstellung, welche simulierte Ergebnisse der Daten-Eingabe/- Ausgabe des Videopuffers und Audiopuffers des DVD-Dekodierers in Fig. 26 zeigt;
  • Fig. 40 ist eine Darstellung zum Unterstützen der Erläuterung eines Konzeptes der erfindungsgemäßen Eltern-Steuerung;
  • Fig. 41 ist eine Darstellung zum Unterstützen der Erläuterung der Daten- Eingabe/ Ausgabe des Videopuffers des in Fig. 26 gezeigten DVD- Dekodierers DCD während der fortlaufenden Wiedergabe;
  • Fig. 42 ist eine Darstellung zum Unterstützen der Erläuterung eines möglichen Problems bei einem in Fig. 40 gezeigten Eltern-Sperr-Steuerungs- Beispiel;
  • Fig. 43 ist eine Darstellung zum Unterstützen der Erläuterung einer bei der Eltern-Sperr-Steuerung erzeugten Wiedergabe-Lücke;
  • Fig. 44 ist eine Darstellung, welche einen erfindungsgemäß erzeugten Systemstrom zeigt;
  • Fig. 45 ist eine Darstellung zum Unterstützen der Erläuterung eines Vorgangs, bei welchem die Systemströme verbunden werden;
  • Fig. 46 ist eine Darstellung zum Unterstützen der Erläuterung eines Verfahrens zum Erzeugen eines Systemstromes;
  • Fig. 47 ist eine Darstellung zum Unterstützen der Erläuterung eines weiteren Verfahrens zum Erzeugen eines Systemstromes;
  • Fig. 48 ist eine Darstellung, welche einen Aufbau des Endes des zweiten gemeinsamen Systemstromes und der Anfänge der zwei Eltern-Sperr- Steuerungs-Systemströme zeigt;
  • Fig. 49 ist eine Darstellung zum Unterstützen der Erläuterung des Unterschieds in der Video-Wiedergabezeit und der Audio-Wiedergabezeit unterschiedlicher Wiedergabepfade;
  • Fig. 50 ist ein Blockdiagramm, welches einen inneren Aufbau des Systemkodierers in dem DVD-Kodierer in Fig. 25 zeigt;
  • Fig. 51 ist eine Darstellung, welche einen Aufbau des Endes der zwei Eltern- Sperr-Steuerungs-Systemströme und den Anfang des folgenden, gemeinsamen Systemstromes Sse zeigt;
  • Fig. 52 ist eine Darstellung zum Unterstützen der Erläuterung des Unterschiedes in der Video-Wiedergabezeit und der Audio-Wiedergabezeit unterschiedlicher Wiedergabepfade;
  • Fig. 53 ist ein Flußdiagramm, welches Einzelheiten der Systemstrom-Erzeugungsroutine in Fig. 34 zeigt,
  • Fig. 54 ist eine Darstellung zum Unterstützen der Erläuterung einer Wirkungsweise zum Berechnen einer Audiodaten-Bewegung MFAp1;
  • Fig. 55 ist eine Darstellung zum Unterstützen der Erläuterung des Vorgangs zum Berechnen einer Audiodaten-Bewegung MFAp2;
  • Fig. 56 ist ein Blockschaltbild, welches einen inneren Aufbau des Synchronisierers in Fig. 26 zeigt;
  • Fig. 57 ist ein Flußdiagramm, welches einen durch die Audiodekodierer-Steuerung in Fig. 26 ausgeführten Vorgang zeigt;
  • Fig. 58 und 59 sind Darstellungen, welche die durch die Dekodierungs-Systemsteuerung in Fig. 26 erzeugte Dekodierungs-Informationstabelle zeigen;
  • Fig. 60 ist ein Flußdiagramm, welches die Wirkungsweise des DVD-Dekodierers DCD in Fig. 26 zeigt;
  • Fig. 61 ist ein Flußdiagramm, welches Einzelheiten der wiedergegebenen, extrahierten PGC-Zuordnung in Fig. 60 zeigt;
  • Fig. 62 ist ein Flußdiagramm, welches Einzelheiten des erfindungsgemäßen Strompuffer-Daten-Übertragungsvorganges zeigt;
  • Fig. 63 istein Flußdiagramm, welches Einzelheiten des Nicht-Mehrfachwinkel- Dekodierungsvorgangs in Fig. 62 zeigt;
  • Fig. 64 istein Flußdiagramm, welches Einzelheiten des Nicht-Mehrfachwinkel- Verschachtelungsvorgangs in Fig. 63 zeigt;
  • Fig. 65 ist ein Flußdiagramm, welches Einzelheiten des fortlaufenden Nicht- Mehrfachwinkel-Blockvorgangs zeigt;
  • Fig. 66 ist ein Flußdiagramm, welches Einzelheiten des Daten-Dekodierungsvorgangs in Fig. 64 zeigt, der durch den gezeigten Strompuffer ausgeführt wird;
  • Fig. 67 ist eine Darstellung, die vereinfacht eine tatsächliche Anordnung der erfindungsgemäß auf einer Datenaufzeichnungsspur auf einem Aufzeichnungsmedium aufgezeichneten Datenblöcke zeigt;
  • Fig. 68 ist eine Darstellung, die vereinfacht fortlaufende Blockregionen und verschachtelte Blockregions-Matrizen zeigt;
  • Fig. 69 ist eine Darstellung, die vereinfacht einen Inhalt eines VTS-Titel-VOBS zeigt; und
  • Fig. 70 ist eine Darstellung, die vereinfacht einen inneren Datenaufbau der erfindungsgemäßen, verschachtelten Blockregionen zeigt.
  • Bester Modus zum Ausführen der Erfindung
  • Die vorliegende Erfindung wird detailliert anhand der beigefügten Zeichnungen beschrieben.
  • Datenaufbau des Autorensystems
  • Der logische Aufbau des unter Verwendung der Aufzeichnungsvorrichtung, des Aufzeichnungsmediums, der Wiedergabevorrichtung und des Autorensystems gemäß der vorliegenden Erfindung verarbeiteten Multimediadaten-Bitstromes wird zuerst unten anhand von Fig. 1 beschrieben.
  • Bei diesem Aufbau bezieht sich ein Titel auf die Kombination von Video- und Audiodaten, welche den von einem Benutzer zur Ausbildung, Unterhaltung oder für andere Zwecke erkannten Programminhalt ausdrücken. Bezogen auf einen Film kann ein Titel dem Inhalt eines gesamten Filmes oder nur einer Szene innerhalb des Filmes entsprechen.
  • Ein Videotitelsatz (VTS) umfaßt die Bitstromdaten mit der Information für eine bestimmte Anzahl von Titeln. Insbesondere umfaßt jeder VTS die Video-, Audio- und andere Wiedergabedaten, welche den Inhalt jedes Titels in dem Satz darstellen, und Steuerungsdaten zum Steuernder Inhaltsdaten.
  • Die Videozone VZ ist die durch das Autorensystem verarbeitete Videodateneinheit und umfaßt eine bestimmte Anzahl von Videotitelsätzen. Insbesondere ist jede Videozone eine lineare Sequenz von K + 1 Videotitelsätzen, die von VTS #0 - VTS #K numeriert sind, wobei K ein ganzzahliger Wert von Null oder größer ist. Ein Videotitelsatz, bevorzugt der erste Videotitelsatz VTS #0, wird als Videoverwaltung verwendet, welche die Inhaltsinformation der in dem Videotitelsatz enthaltenen Titel beschreibt.
  • Der Muldimedia-Bitstrom MBS ist die größte Steuerungseinheit des von dem Autorensystem der vorliegenden Erfindung gehandhabten Multimedia-Datenbitstromes und umfaßt mehrere Videozonen VZ.
  • Autoren-Kodierer EC
  • Eine bevorzugte Ausführungsform des erfindungsgemäßen Autoren-Kodierers EC zum Erzeugen eines neuen Multimedia-Bitstromes MBS durch Neukodieren des ursprünglichen Multimedia-Bitstromes MBS entsprechend dem von dem Benutzer gewünschten Szenario ist in Fig. 2 gezeigt. Es ist anzumerken, daß der ursprüngliche Multimedia-Bitstrom MBS einen Videostrom St1 mit der Videoinformation, einen Sub-Bild-Strom St3 mit erfaßtem Text oder anderen Hilfs-Videoinformationen und den Audiostrom St5 mit der Audioinformation umfaßt.
  • Die Video- und Audioströme sind die Bitströme mit den von der Quelle innerhalb eines bestimmten Zeitabschnittes erhaltenen Video- und Audioinformationen. Der Sub-Bild-Strom ist ein Bitstrom mit gegenwärtigen, für eine bestimmte Szene relevanten Videoinformationen. Die für eine einzelne Szene kodierten Sub-Bild- Daten können in dem Videospeicher erfaßt und aus dem Videospeicher kontinuierlich für mehrere Szenen angezeigt werden, wenn dies erforderlich ist.
  • Wenn diese Multimedia-Quellendaten St1, St3 und St5 von einer Live-Rundfunkübertragung erhalten werden, werden die Video- und Audiosignale in Echtzeit von einer Videokamera oder einer anderen Bildquelle geliefert; wenn die Multimedia- Quellendaten von einem Videoband oder einem anderen Aufzeichnungsmedium wiedergegeben werden, sind die Audio- und Videosignale nicht Echtzeit-Signale.
  • Während der Multimedia-Quellenstrom in Fig. 2 als diese drei Quellensignale umfassend gezeigt ist, dient dies nur der Bequemlichkeit, und es ist anzumerken, daß der Multimedia-Quellenstrom mehr als drei Arten von Quellensignalen enthalten kann und Quellendaten für unterschiedliche Titel enthalten kann. Multimedia- Quellendaten mit Audio-, Video- und Sub-Bild-Daten für mehrere Titel werden unten als Mehrfachtitelströme bezeichnet.
  • Wie in Fig. 2 gezeigt, umfaßt der Autorenkodierer EC einen Szenario-Editor 100, eine Kodierungs-Systemsteuerung 200, einen Videokodierer 300, einen Videostrompuffer 400, einen Sub-Bild-Kodierer 500, einen Sub-Bild-Strompuffer 600, einen Audiokodierer 700, einen Audiostrompuffer 800, einen Systemkodierer 900, einen Videozonenformatierer 1300, eine Aufzeichnungsvorrichtung 1200 und ein Aufzeichnungsmedium M.
  • Der Videozonenformatierer 1300 umfaßt einen Videoobjekt-(VOB)-Puffer 1000, einen Formatierer 1100 und einen Volumen- und Dateiaufbau-Formatierer 1400.
  • Der durch den Autorenkodierer EC der vorliegenden Ausführungsform kodierte Bitstrom wird nur beispielhaft auf einer optischen Disk aufgezeichnet.
  • Der Szenario-Editor 100 des Autorenkodierers EC gibt die Szenariodaten, d. h., die benutzerdefinierten Bearbeitungsanweisungen, aus. Die Szenariodaten steuern die Bearbeitung der entsprechenden Teile des Multimedia-Bitstromes MBS entsprechend der Benutzerbeeinflussung der Video-, Sub-Bild- und Audio-Komponenten des ursprünglichen Multimediatitels. Dieser Szenario-Editor 100 umfaßt bevorzugt eine Anzeige, Lautsprecher, Tastatur, CPU und einen Quellenstrompuffer. Der Szenario-Editor 100 ist an eine äußere Multimedia-Bitstromquelle angeschlossen, von welcher Multimedia-Quellendaten St1, St3 und St5 geliefert werden.
  • Der Benutzer ist somit in der Lage, die Video- und Audio-Komponenten der Multimedia-Quellendaten unter Verwendung der Anzeige und des Lautsprechers wiederzugeben, um den Inhalt des erzeugten Titels zu bestätigen. Der Benutzer ist dann in der Lage, den Titelinhalt entsprechend dem gewünschten Szenario unter Verwendung der Tastatur, einer Maus und anderen Befehlseingabegeräten zu bearbeiten, während der Inhalt des Titels auf der Anzeige und durch die Lautsprecher bestätigt wird. Das Ergebnis dieser Multimediadaten-Beeinflussung sind die Szenariodaten St7.
  • Die Szenariodaten St7 sind grundsätzlich ein Satz von Anweisungen, die beschreiben, welche Quellendaten aus sämtlichen ausgewählt sind, oder ein Teilsatz aus Quellendaten mit mehreren Titeln innerhalb eines bestimmten Zeitabschnittes, und wie die ausgewählten Quellendaten neu angeordnet werden, um das von dem Benutzer vorgesehene Szenario (die Sequenz) wiederzugeben. Basierend auf den durch die Tastatur oder ein anderes Steuergerät empfangenen Anweisungen kodiert die CPU die Position, Länge und relativen zeitbasierten Positionen der bearbeiteten Teile der entsprechenden Multimedia-Quellendatenströme St1, St3 und St5 zum Erzeugen der Szenariodaten St7.
  • Der Quellenstrompuffer weist eine bestimmte Kapazität auf und wird verwendet, um die Multimedia-Quellendatenströme St1, St3 und St5 eine bekannte Zeit Td zu verzögern und dann die Ströme St1, St3 und St5 auszugeben.
  • Diese Verzögerung ist zur Synchronisierung mit dem Editor-Kodierungsvorgang erforderlich. Insbesondere wenn die Datenkodierung und die Benutzererzeugung von Szenariodaten St7 gleichzeitig ausgeführt werden, d. h. wenn eine Kodierung der Bearbeitung sofort folgt, ist die Zeit Td erforderlich, um den Inhalt des Multimedia-Quellendaten-Bearbeitungsvorgangs basierend auf den Szenariodaten St7 zu bestimmen, wie weiter unten beschrieben. Als Ergebnis müssen die Multimedia- Quellendaten um die Zeit Td verzögert werden, um den Bearbeitungsvorgang während des tatsächlichen Kodierungsvorgangs zu synchronisieren. Da diese Verzögerungszeit Td auf die zum Synchronisieren des Vorgangs der verschiedenen Systemkomponenten im Falle der sequentiellen Bearbeitung, wie oben beschrieben, benötigte Zeit beschränkt ist, ist der Quellenstrompuffer normalerweise durch ein Hochgeschwindigkeits-Speichermedium wie einen Halbleiterspeicher verwirklicht.
  • Während der Stapelbearbeitung, bei welcher sämtliche Multimedia-Quellendaten auf einmal kodiert (stapelkodiert) werden, nachdem die Szenariodaten St7 für den gesamten Titel erzeugt sind, muß die Verzögerungszeit Td ausreichend lang sein, um den vollständigen Titel zu verarbeiten, oder länger. In diesem Fall kann der Quellenstrompuffer ein langsames Speichermedium mit hoher Kapazität wie ein Videoband, eine Magnetplatte oder eine optische Disk sein.
  • Der Aufbau (Typ) der für den Quellenstrompuffer genutzten Medien kann daher entsprechend der erforderlichen Verzögerungszeit und den zulässigen Herstellungskosten bestimmt werden.
  • Die Kodierungs-Systemsteuerung 200 ist an den Szenario-Editor 100 angeschlossen und empfängt die Szenariodaten St7 davon. Basierend auf der Zeitbasis-, Positions- und Längeninformation des in den Szenariodaten St7 enthaltenen Bearbeitungssegmentes erzeugt die Kodierungs-Systemsteuerung 200 die Kodierungs- Parametersignale St9, St11 und St13 zum Kodieren des Bearbeitungssegmentes der Multimedia-Quellendaten. Die Kodierungssignale St9, St11 und St13 liefern die zur Video-, Sub-Bild- und Audiokodierung verwendeten Parameter, einschließlich der Kodierungs-Anfangs- und End-Zeitpunkte. Es ist anzumerken, daß die Multimedia-Quellendaten St1, St3 und St5 nach der Verzögerungszeit Td durch den Quellenstrompuffer ausgegeben werden und daher mit den Kodierungs-Parametersignalen St9, St11 und St13 synchronisiert sind.
  • Insbesondere ist das Kodierungs-Parametersignal St9 das Video-Kodierungssignal, das den Kodierungszeitpunkt des Videostromes St1 angibt, um das Kodierungssegment aus dem Videostrom St1 zu extrahieren und die Video-Kodierungseinheit zu erzeugen. Das Kodierungs-Parametersignal St11 ist in gleicher Weise das zum Erzeugen der Sub-Bild-Kodierungseinheit durch Festlegen des Koderungszeitpunktes für den Sub-Bild-Strom St3 verwendete Sub-Bild-Strom-Kodierungssignal. Das Kodierungs-Parametersignal St13 ist das zum Erzeugen der Audio-Kodierungseinheit durch Bestimmen des Kodierungs-Zeitpunktes für den Audiostrom St5 verwendete Audio-Kodierungssignal.
  • Basierend auf dieser zeitlichen Beziehung zwischen den Kodierungssegmenten der Ströme St1, St3 und St5 in den in den Szenadiodaten St7 enthaltenen Multimedia- Quellendaten erzeugt die Kodierungs-Systemsteurung 200 die Zeitsteuerungssigale St21, St23 und St25, welche den kodierten Multimedia-kodierten Strom in der festgelegten zeitlichen Beziehung anordnen.
  • Die Kodierungs-Systemsteuerung 200 erzeugt ebenfalls die Wiedergabe-Zeitinformation IT, welche die Wiedergabezeit der Titel-Bearbeitungseinheit (Videoobjekt, VOB) festlegt, und die Strom-Kodierungsdaten St33, welche die Systemkodierungs- Parameter zum Multiplexen des kodierten Multimediastromes mit Video-, Audio- und Sub-Bild-Daten definieren. Es ist anzumerken, daß die Wiedergabe-Zeitinformation IT und die Strom-Kodierungsdaten St33 für das Videoobjekt VOB jedes Titels in einer Videozone VZ erzeugt werden.
  • Die Kodierungs-Systemsteuerung 200 erzeugt ebenfalls das Titelsequenz-Steuerungssignal St39, welches die Formatierungs-Parameter zum Formatieren der Titelbearbeitungseinheiten VOB von jedem der Ströme in einer bestimmten zeitlichen Beziehung als Multimedia-Bitstrom angibt. Insbesondere wird das Titelsequenz-Steuerungssignal St39 verwendet, um die Verbindungen zwischen den Titel-Bearbeitungseinheiten (VOB) jedes Titels in dem Multimedia-Bitstrom MBS zu steuern oder um die Sequenz der verschachtelten Titelbearbeitungseinheit (VOBs) zu steuern, welche die Titelbearbeitungseinheiten VOB mehrerer Wiedergabepfade verschachteln.
  • Der Videokodierer 300 ist an den Quellenstrompuffer des Szenario-Editors 100 und an die Kodierungs-Systemsteuerung 200 angeschlossen und empfängt davon den Videostrom St1 und das Video-Kodierungs-Parametersignal St9. Durch das Video- Kodierungssignal St9 gelieferte Kodierungsparameter beinhalten die Kodierungs- Anfangs- und End-Zeitsteuerung, die Bitgeschwindigkeit, die Kodierungsbedingungen für den Kodierungsanfang und das Ende und den Materialtyp. Mögliche Materialtypen beinhalten NTSC oder PAL-Videosignale und Tele-cine konvertiertes Material. Basierend auf dem Videokodierungs-Parametersignal St9 kodiert der Videokodierer 300 einen bestimmten Teil des Videostromes St1, um den kodierten Videostrom St15 zu erzeugen.
  • Der Sub-Bild-Kodierer 500 ist vergleichbar an den Quellenstrompuffer des Szenario- Editors 100 und an die Kodierungs-Systemsteuerung 200 angeschlossen und empfängt davon den Sub-Bild-Strom St3 und das Sub-Bild-Kodierungs-Parametersignal St11. Basierend auf dem Sub-Bild-Kodierungs-Parametersignal St11 kodiert der Sub-Bild-Kodierer 500 einen bestimmten Teil des Sub-Bild-Stromes St3 zum Erzeugen des kodierten Sub-Bild-Stromes St17.
  • Der Audiokodierer 700 ist ebenfalls an den Quellenstrompuffer des Szenario-Editors 100 und an die Kodierungs-Systemsteuerung 200 angeschlossen und empfängt davon den Audiostrom St5 und das Audio-Kodierungs-Parametersignal St13, welches die Kodierungs-Anfangs- und End-Zeitpunkte liefert. Basierend auf dem Audio-Kodierungs-Parametersignal St13 kodiert der Audiokodierer 700 einen bestimmten Teil des Audiostromes St5, um den kodierten Audiostrom St19 zu erzeugen.
  • Der Videostrompuffer 400 ist an den Videokodierer 300 und die Kodierungs- Systemsteuerung 200 angeschlossen. Der Videostrompuffer 400 speichert den von dem Videokodierer 300 eingegebenen, kodierten Videostrom St15 und gibt den gespeicherten, kodierten Videostrom St15 als den zeitverzögerten, kodierten Videostrom St27 basierend auf dem von der Kodierungs-Systemsteuerung 200 gelieferten Zeitsteuerungssignal St21 aus.
  • Der Sub-Bild-Strompuffer 600 ist ebenso an den Sub-Bild-Kodierer 500 und die Kodierungs-Systemsteuerung 200 angeschlossen. Der Sub-Bild-Strompuffer 600 speichert den von dem Sub-Bild-Kodierer 500 ausgegebenen, kodierten Sub-Bild- Strom St17 und gibt dann den gespeicherten, kodierten Sub-Bild-Strom St17 als zeitverzögerten, kodierten Sub-Bild-Strom St29 basierend auf dem von der Kodierungs-Systemsteuerung 200 gelieferten Zeitsteuerungssignal St23 aus.
  • Der Audiostrompuffer 800 ist ebenso an den Audiokodierer 700 und an die Kodierungs-Systemsteuerung 200 angeschlossen. Der Audiostrompuffer 800 speichert den von dem Audiokodierer 700 eingegebenen Audiostrom St19 und gibt dann den kodierten Audiostrom St19 als den zeitverzögerten, kodierten Audiostrom St31 basierend auf dem von der Kodierungs-Systemsteuerung 200 gelieferten Zeitsteuerungssignal St25 aus.
  • Der Systemkodierer 900 ist an den Videostrompuffer 400, den Sub-Bild-Strompuffer 600, den Audiostrompuffer 800 und die Kodierungs-Systemsteuerung 200 angeschlossen und wird davon entsprechend mit dem zeitverzögerten, kodierten Videostrom St27, dem zeitverzögerten, kodierten Sub-Bild-Strom St29, dem zeitverzögerten, kodierten Audiostrom St31 und den Stromkodierungsdaten St33 versorgt. Es ist anzumerken, daß der Systemkodierer 900 ein Multiplexer ist, der die zeitverzögerten Ströme St27, St29 und St31 basierend auf den Stromkodierungsdaten St33 (Zeitsteuerungssignal) zum Erzeugen der Titelbearbeitungseinheit (VOB) St35 multiplext. Die Stromkodierungsdaten St33 enthalten die Systemkodierungs-Parameter einschließlich der Kodierungs-Anfangs- und End-Zeitpunkte.
  • Der Videozonen-Formatierer 1300 ist an den Systemkodierer 900 und die Kodierungs-Systemsteuerung 200 angeschlossen, von welcher die Titelbearbeitungseinheit (VOB) St35 und das Titelsequenz-Steuerungssignal St39 (Zeitsteuerungssignal) entsprechend geliefert werden. Das Titelsequenz-Steuerungssignal St39 enthält den Formatierungs-Anfangs- und End-Zeitpunkt und die zum Erzeugen (Formatieren) eines Multimedia-Bitstromes MBS verwendeten Formatierungs-Parameter. Der Videozonen-Formatierer 1300 ordnet die Titelbearbeitungseinheiten (VOB) St35 in einer Videozone VZ in der von dem Benutzer definierten Szenariosequenz basierend auf dem Titelsequenz-Steuerungssignal St39 neu an, um die bearbeiteten Multimediastrom-Daten St43 zu erzeugen.
  • Der entsprechend dem benutzerdefinierten Szenario bearbeitete Multimedia-Bitstrom MBS St43 wird dann zu der Aufzeichnungsvorrichtung 1200 gesendet. Die Aufzeichnungsvorrichtung 1200 verarbeitet die bearbeiteten Multimediastrom- Daten St43 in das Datenstrom-St45-Format des Aufzeichnungsmediums M und zeichnet somit den formatierten Datenstrom St45 auf dem Aufzeichnungsmedium M auf. Es ist anzumerken, daß der auf dem Aufzeichnungsmedium M aufgezeichnete Multimedia-Bitstrom MBS die Volumen-Dateistruktur VFS beinhaltet, welche die durch den Videozonen-Formatierer 1300 erzeugte, physikalische Adresse der Daten auf dem Aufzeichnungsmedium beinhaltet.
  • Es ist anzumerken, daß der kodierte Multimedia-Bitstrom MBS St35 direkt zu dem Dekodierer ausgebbar ist, um sofort den bearbeiteten Titelinhalt wiederzugeben. Es ist offensichtlich, daß der ausgegebene Multimedia-Bitstrom MBS in diesem Fall nicht die Volumen-Dateistruktur VFS enthält.
  • Autoren-Dekodierer DC
  • Eine bevorzugte Ausführungsform des zum Dekodieren des durch den Autorenkodierer EC der vorliegenden Erfindung bearbeiteten Multimedia-Bitstromes MBS verwendeten Autorendekodierers DC, und dadurch Wiedergeben des Inhalts jeder Titeleinheit entsprechend dem benutzerdefinierten Szenario, wird als nächstes unten anhand von Fig. 3 beschrieben. Es ist anzumerken, daß in der unten beschriebenen, bevorzugten Ausführungsform der durch den Autorenkodierer EC kodierte Multimedia-Bitstrom St45 auf dem Aufzeichnungsmedium M aufgezeichnet ist.
  • Wie in Fig. 3 gezeigt, umfaßt der Autorendekodierer DC eine Multimedia-Bitstrom- Erzeugungsvorrichtung 200, eine Szenario-Auswählvorrichtung 2100, eine Dekodierungs-Systemsteuerung 2300, einen Strompuffer 2400, einen Systemdekodierer 2500, einen Videopuffer 2600, einen Sub-Bild-Puffer 2700, einen Audiopuffer 2800, einen Synchronisierer 2900, einen Videodekodierer 3800, einen Sub-Bild- Dekodierer 3100, einen Audiodekodierer 3200, einen Synthetisierer 3500, einen Videodaten-Ausgabeanschluß 3600 und einen Audiodaten-Ausgabeanschluß 3700.
  • Die Bitstrom-Erzeugungsvorrichtung 2000 umfaßt eine Aufzeichnungsmedium- Antriebseinheit 2004 zum Antreiben des Aufzeichnungsmediums M; einen Lesekopf 2006 zum Lesen der auf dem Aufzeichnungsmedium M aufgezeichneten Informationen und Erzeugen des binären Lesesignals St57; einen Signalprozessor 2008 zum variablen Verarbeiten des Lesesignals St57 zum Erzeugen des wiedergegebenen Bitstromes St61 und eine Wiedergabesteuerung 2002.
  • Die Wiedergabesteuerung 2002 ist an die Dekodierungs-Systemsteuerung 2300 angeschlossen, von welcher das Multimedia-Bitstrom-Wiedergabe-Steuerungssignal St53 geliefert wird, und erzeugt wiederum die Wiedergabe-Steuerungssignale St55 und St59 zum Steuern der Aufzeichnungsmedium-Antriebseinheit (Motor) 2004 und des Signalprozessors 2008.
  • Damit die benutzerdefinierten Video-, Sub-Bild- und Audioteile des durch den Autorenkodierer DC bearbeiteten Multimediatitels wiedergegeben werden können, umfaßt der Autorendekodierer DC eine Szenario-Auswählvorrichtung 2100 zum Auswählen und Wiedergeben der entsprechenden Szenen (Titel). Die Szenario- Auswählvorrichtung 2100 gibt dann die ausgewählten Titel als Szenariodaten zu dem Autorendekodierer DC aus.
  • Die Szenario-Auswählvorrichtung 2100 umfaßt bevorzugt eine Tastatur, eine CPU und einen Monitor. Unter Verwendung der Tastatur gibt der Benutzer dann das gewünschte Szenario basierend auf dem Inhalt des durch den Autorenkodierer EC eingegebenen Szenarios ein. Basierend auf der Tastatureingabe erzeugt die CPU die Szenario-Auswahldaten St51, welche das ausgewählte Szenario festlegen. Die Szenario-Auswählvorrichtung 2100 ist zum Beispiel durch eine Infrarot-Kommunikationsvorrichtung an die Dekodierungs-Systemsteuerung 2300 angeschlossen, in welche sie die Szenario-Auswahldaten St51 eingibt.
  • Basierend auf den Szenario-Selektionsdaten St51 erzeugt die Dekodierungs- Systemsteuerung 2300 dann das Bitstrom-Wiedergabe-Steuerungssignal St53, welches die Wirkungsweise der Bitstrom-Erzeugungsvorrichtung 2000 steuert.
  • Der Strompuffer 2400 weist eine bestimmte Pufferkapazität auf, die zum vorübergehenden Speichern des von der Bitstrom-Erzeugungsvorrichtung 2000 eingegebenen, wiedergegebenen Bitstromes St61 verwendet wird, Extrahieren der Adreßinformation und Anfangs-Synchronisierungs-Daten SCR (Systemtaktreferenz) für jeden Strom, und Erzeugen von Bitstrom-Steuerungsdaten St63. DerStrompuffer 2400 ist ebenfalls an die Dekodierungs-Systemsteuerung 2300 angeschlossen, zu welcher er die erzeugten Bitstrom-Steuerungsdaten St63 liefert.
  • Der Synchronisierer 2900 ist an die Dekodierungs-Systemsteuerung 2300 angeschlossen, von welcher er die in den Synchronisierungs-Steuerungsdaten St81 enthaltene Systemtaktreferenz SCR empfängt, um den internen Systemtakt STC zu setzen und den Rücksetz-Systemtakt St79 zu der Dekodierungs-Systemsteuerung 2300 zu liefern.
  • Basierend auf diesem Systemtakt St79 erzeugt die Dekodierungs-Systemsteuerung 2300 ebenfalls das Strom-Lesesignal St65 mit einem spezifischen Intervall und gibt das Lesesignal St65 zu dem Strompuffer 2400 aus.
  • Basierend auf dem gelieferten Lesesignal St65 gibt der Strompuffer 2400 den wiedergegebenen Bitstrom St61 mit einem bestimmten Intervall als Bitstrom St67 zu dem Systemdekodierer 2500 aus.
  • Basierend auf den Szenario-Auswahldaten St51 erzeugt die Dekodierungs- Systemsteuerung 2300 das Dekodierungssignal St69, welches die Strom-Ids für die Video-, Sub-Bild- und Audio-Bitströme entsprechend dem ausgewählten Szenario bestimmt und gibt es zu dem Systemdekodierer 2500 aus.
  • Basierend auf den in dem Dekodierungssignal St69 enthaltenen Anweisungen gibt der Systemdekodierer 2500 die von dem Strompuffer 2400 eingegebenen Video-, Sub-Bild- und Audio-Bitströme zu dem Videopuffer 2600, dem Sub-Bild-Puffer 2700 und dem Audiopuffer 2800 als den kodierten Videostrom St71, den kodierten Sub-Bild-Strom St73 und den kodierten Audiostrom St75 aus.
  • Der Systemdekodierer 2500 erfaßt die Darstellungszeitmarke PTS und die Dekodierungszeitmarke DTS der kleinsten Steuerungseinheit in jedem Bitstrom St67 zum Erzeugen des Zeitinformationssignals St77. Dieses Zeitinformationssignal St77 wird durch die Dekodierungs-Systemsteuerung 2300 als die Synchronisierungs-Steuerungsdaten St81 zu dem Synchronisierer 2900 geliefert.
  • Basierend auf diesen Synchronisierungs-Steuerungsdaten St81 bestimmt der Synchronisierer 2900 den Dekodierungs-Anfangszeitpunkt, wobei jeder der Bit ströme in der korrekten Reihenfolge nach der Dekodierung angeordnet wird, und erzeugt dann und gibt das Videostrom-Dekodierungs-Anfangssignal St89 basierend auf dieser Dekodierungs-Zeitsteuerung in den Videodekodierer 3800 ein. Der Synchronisierer 2900 erzeugt ebenfalls und liefert das Sub-Bild-Dekodierungs- Anfangssignal St91 und das Audiostrom-Dekodierungs-Anfangssignal St93 zu dem Sub-Bild-Dekodierer 3100 und dem Audiodekodierer 3200.
  • Der Videodekodierer 3800 erzeugt das Videoausgabe-Anforderungssignal St84 basierend auf dem Videostrom-Dekodierungs-Anfangssignal St89 und gibt es zu dem Videopuffer 2600 aus. Als Reaktion auf das Videoausgabe-Anforderungssignal St84 gibt der Videopuffer 2600 den Videostrom St83 zu dem Videodekodierer 3800 aus. Der Videodekodierer 3800 erfaßt somit die in dem Videostrom St83 enthaltene Darstellungs-Zeitinformation und deaktiviert das Videoausgabe-Anforderungssignal St84, wenn die Länge des empfangenenen Videostromes St83 äquivalent zu der festgelegten Darstellungszeit ist. Ein mit der festgelegten Darstellungszeit in der Länge gleicher Videostrom wird somit durch den Videodekodierer 3800 dekodiert, welcher das wiedergegebene Videosignal St104 zu dem Synthetisierer 3500 ausgibt.
  • Der Sub-Bild-Dekodierer 3100 erzeugt vergleichbar das Sub-Bild-Ausgabe-Anforderungssignal St86 basierend auf dem Sub-Bild-Dekodierungs-Anfangssignal St91 und gibt es zu dem Sub-Bild-Puffer 2700 aus. Als Reaktion auf das Sub-Bild- Ausgabe-Anforderungssignal St86 gibt der Sub-Bild-Puffer 2700 den Sub-Bild- Strom St85 zu dem Sub-Bild-Dekodierer 3100 aus. Basierend auf der in dem Sub- Bild-Strom St85 enthaltenen Darstellungs-Zeitinformation dekodiert der Sub-Bild- Dekodierer 3100 eine Länge des Sub-Bild-Stromes St85 entsprechend der festgelegten Darstellungszeit zum Wiedergeben und Liefern des Sub-Bild-Signals St99 zu dem Synthetisierer 3500.
  • Der Synthetisierer 3500 überlagert das Videosignal St104 und das Sub-Bild-Signal St99 zum Erzeugen und Ausgeben des Mehrfach-Bild-Videosignals St105 zu dem Videodaten-Ausgabeanschluß 3600.
  • Der Audiodekodierer 3200 erzeugt und liefert das Audio-Ausgabe-Anforderungssignal St88, welches auf dem Audiostrom-Dekodierungs-Anfangssignal St93 basiert, zu dem Audiopuffer 2800. Der Audiopuffer 2800 gibt somit den Audiostrom St87 zu dem Audiodekodierer 3200 aus. Der Audiodekodierer 3200 dekodiert eine Länge des Audiostromes St87 entsprechend der festgelegten Darstellungszeit basierend auf der in dem Audiostrom St87 enthaltenen Darstellungs- Zeitinformation und gibt den dekodierten Audiostrom St101 zu dem Audiodaten- Ausgabeanschluß 3700 aus.
  • Somit ist es möglich, einen benutzerdefinierten Multimedia-Bitstrom MBS in Echtzeit entsprechend einem benutzerdefinierten Szenario wiederzugeben. Insbesondere jedesmal, wenn der Benutzer ein anderes Szenario auswählt, ist der Autorendekodierer DC in der Lage, den von dem Benutzer gewünschten Titelinhalt in der gewünschten Reihenfolge durch Wiedergeben des Multimedia-Bitstromes MBS entsprechend dem ausgewählten Szenario wiederzugeben.
  • Daher ist es durch das Autorensystem der vorliegenden Erfindung möglich, einen Multimedia-Bitstrom entsprechend mehreren benutzerdefinierten Szenarien durch Echtzeit- oder Stapel-Kodieren von Multimedia-Quellendaten in einer Weise zu erzeugen, durch welche die Sub-Ströme der kleinsten Bearbeitungseinheiten (Szenen), welche in mehrere Sub-Ströme aufteilbar sind und den Basis-Titelinhalt ausdrücken, in einer bestimmten zeitlichen Beziehung angeordnet werden.
  • Der somit kodierte Multimedia-Bitstrom kann dann entsprechend einem aus mehreren möglichen Szenarien ausgewählten Szenario wiedergegeben werden. Es ist ebenfalls möglich, Szenarien zu ändern, während die Wiedergabe abläuft, d. h., ein anderes Szenario auszuwählen und einen neuen Multimedia-Bitstrom entsprechend dem zuletzt ausgewählten Szenario dynamisch zu erzeugen. Es ist ebenfalls möglich, dynamisch jede von mehreren Szenen während der Wiedergabe des Titelinhalts entsprechend einem gewünschten Szenario auszuwählen und wiederzugeben.
  • Daher ist es durch das Autorensystem der vorliegenden Erfindung möglich, einen Multimedia-Bitstrom MBS in Echtzeit zu kodieren und nicht nur wiederzugeben, sondern wiederholt wiederzugeben.
  • DVD
  • Ein Beispiel einer Digital-Video-Disk (DVD) mit nur einer Aufzeichnungsoberfläche (eine einseitige DVD) ist in Fig. 4 gezeigt.
  • Das DVD-Aufzeichnungsmedium RC1 umfaßt in der bevorzugten Ausführungsform der Erfindung eine Datenaufzeichnungsoberfläche RS1, auf und von welcher Daten geschrieben und gelesen werden durch Emittieren eines Laserstrahles LS, und eine Schutzschicht BL1, welche die Datenaufzeichnungsoberfläche RS1 bedeckt. Eine Rückenschicht PL1 ist ebenfalls an der Rückseite der Datenaufzeichnungsoberfläche RS1 vorgesehen. Die Seite der Disk, auf welcher die Schutzschicht PL1 vorgesehen ist, wird daher unten als Seite SA (allgemein "Seite A") und die gegenüberliegende Seite (auf welcher die Rückenschicht BL1 vorgesehen ist) als Seite SB ("Seite B") bezeichnet. Es ist anzumerken, daß Digital-Video-Disk-Aufzeichnungsmedien mit einer einzelnen Datenaufzeichnungsoberfläche RS1 auf nur einer Seite, wie dieses DVD-Aufzeichnungsmedium RC1, allgemein als einseitige Einzelschicht- Disk bezeichnet werden.
  • Eine detaillierte Darstellung des Bereiches C1 in Fig. 4 ist in Fig. 5 gezeigt. Es ist anzumerken, daß die Datenaufzeichnungsoberfläche RS1 durch Anwenden eines metallischen Dünnfilmes oder einer anderen reflektierenden Beschichtung als einer Datenschicht 4109 auf einer ersten transparenten Schicht 4108 mit einer bestimmten Dicke T1 ausgebildet wird. Die erste transparente Schicht 4108 wirkt ebenfalls als die Schutzschicht PL1. Ein zweiter transparenter Träger 4111 mit einer Dicke T2 wirkt als die Rückenschicht BL1 und ist an der ersten transparenten Schicht 4108 durch eine dazwischen angeordnete Klebeschicht 4110 angebracht.
  • Eine Druckschicht 411 2 zum Drucken eines Disk-Labels kann bei Bedarf ebenfalls auf dem zweiten transparenten Träger 4111 angeordnet sein. Die Druckschicht 4112 bedeckt gewöhnlich nicht den gesamten Oberflächenbereich des zweiten transparenten Trägers 4111 (Rückenschicht BL1), sondern nur den zum Drucken des Textes und der Grafik des Disk-Bezeichners benötigten Bereich. Der Bereich des zweiten transparenten Trägers 4111, auf welchem die Druckschicht 4112 nicht ausgebildet ist, kann freibleiben. Von der Datenschicht 4109 (metallischer Dünnfilm), welche die Datenaufzeichnungsoberfläche RS1 bildet, reflektiertes Licht kann daher dort, wo das Label nicht gedruckt ist, direkt beobachtet werden, wenn die Digital-Video-Disk von der Seite SB betrachtet wird. Als Ergebnis sieht der Hintergrund aus wie ein silberweißer, über welchen der gedruckte Text und die Grafik fließen, wenn der metallische Dünnfilm zum Beispiel ein Aluminium-Dünnfilm ist.
  • Es ist anzumerken, daß es erforderlich ist, die Druckschicht 4112 vorzusehen, wo sie zum Bedrucken benötigt wird, und es ist nicht erforderlich, die Druckschicht 4112 auf der gesamten Oberfläche der Rückenschicht BL1 vorzusehen.
  • Eine detaillierte Darstellung des Bereiches C2 in Fig. 5 ist in Fig. 6 gezeigt. Pits und Lands sind in die gemeinsame Berührungsoberfläche zwischen der ersten transparenten Schicht 4108 und der Datenschicht 4109 auf der Seite SA eingeschmol zen, von welcher Daten durch Emittieren eines Laserstrahles LS gelesen werden, und die Daten sind durch Variieren der Längen der Pits und der Lands (d. h. der Länge der Intervalle zwischen den Pits) aufgezeichnet. Insbesondere wird die auf der ersten transparenten Schicht 4108 ausgebildete Pit- und Land-Anordnung auf die Datenschicht 4109 übertragen. Die Längen der Pits und der Lands sind kürzer und der Abstand der durch die Pitfolgen gebildeten Datenspuren ist geringer als bei einer konventionellen Compakt Disk (CD). Die Oberflächen-Aufzeichnungsdichte ist daher deutlich erhöht.
  • Die Seite SA der ersten transparenten Schicht 4108, auf welcher die Daten-Pits nicht ausgebildet sind, ist eine flache Oberfläche. Der zweite transparente Träger 4111 dient zur Verstärkung und ist eine transparente Fläche, die aus dem gleichen Material wie die erste transparente Schicht 4108 hergestellt ist, mit zwei flachen Seiten. Die Dicken T1 und T2 sind bevorzugt gleich und gemeinsam etwa 0,6 mm, die Erfindung soll aber nicht darauf beschränkt sein.
  • Wie bei einer CD wird die Information durch Beleuchten der Oberfläche mit einem Laserstrahl LS und Erfassen der Änderung in dem Reflexionsgrad des Lichtpunktes gelesen. Da die bei einem Digital-Video-Disk-System Objektivlinsen-Apertur NA groß sein kann und die Wellenlänge I des Lichtstrahles klein sein kann, kann der Durchmesser des verwendeten Lichtpunktes Ls auf etwa 1/1,6 des zum Lesen einer CD benötigten Lichtpunktes verringert sein. Es ist anzumerken, daß dieses bedeutet, daß die Auflösung des Laserstrahles LS in dem DVD-System etwa das 1,6-fache der Auflösung eines konventionellen CD-Systems ist.
  • Das zum Lesen der Daten von der Digital-Video-Disk verwendete optische System verwendet einen kurzwelligen, roten 650 nm-Halbleiter-Laser und eine Objektivlinse mit einer 0,6 mm-Apertur NA. Durch ebenfalls Verringern der Dicke T der transparenten Schichten auf 0,6 mm können mehr als 5 GB Daten auf einer Seite einer optischen Disk mit 120 mm Durchmesser gespeichert werden.
  • Daher ist es möglich, bewegte Bilder (Videos) mit außerordentlich großer Einheiten- Datengröße auf einer Digital-Video-Disk-System-Disk zu speichern, ohne Bildqualität zu verlieren, da die Speicherkapazität eines einseitigen Einzelschicht-Aufzeichnungsmediums RC1 mit einer Datenaufzeichnungsoberfläche RS1, wie somit beschrieben, annähernd das 10-fache der Speicherkapazität einer konventionellen CD ist. Als Ergebnis können, während die Video-Darstellungszeit eines konventionellen CD-Systems etwa 74 Minuten beträgt, wenn die Bildqualität befriedigend ist, hochqualitative Videobilder mit einer zwei Stunden überschreitenden Videodarstellungszeit auf einer DVD aufgezeichnet werden.
  • Die Digital-Video-Disk ist daher als Aufzeichnungsmedium für Videobilder gut geeignet.
  • Ein Digital-Video-Disk-Aufzeichnungsmedium mit mehreren Aufzeichnungsoberflächen RS, wie oben beschrieben, ist in den Fig. 7 und 8 gezeigt. Das in Fig. 7 gezeigte DVD-Aufzeichnungsmedium RC2 umfaßt zwei Aufzeichnungsoberflächen, d. h., eine erste Aufzeichnungsoberfläche RS1 und eine halbtransparente, zweite Aufzeichnungsoberfläche RS2 auf der gleichen Seite, d. h., der Seite SA der Disk. Daten können gleichzeitig von diesen zwei Aufzeichnungsoberflächen aufgezeichnet oder wiedergegeben werden unter Verwendung unterschiedlicher Laserstrahlen LS1 und LS2 für die erste Aufzeichnungsoberfläche RS1 und die zweite Aufzeichnungsoberfläche RS2. Es ist ebenfalls möglich, beide Aufzeichnungsoberflächen RS1 und RS2 unter Verwendung nur eines Laserstrahles LS1 oder LS2 zu lesen/- schreiben. Es ist anzumerken, daß diese Aufzeichnungsmedien als "einseitige Doppelschicht-Disks" bezeichnet werden.
  • Es ist ebenfalls anzumerken, daß, während zwei Aufzeichnungsoberflächen RS1 und RS2 in diesem Beispiel vorgesehen sind, es ebenfalls möglich ist, Digital-Video- Disk-Aufzeichnungsmedien mit mehr als zwei Aufzeichnungsoberflächen RS zu erzeugen. Solche Disks sind bekannt als "einseitige Mehrfachschicht-Disks".
  • Obwohl es ebenso wie das in Fig. 7 gezeigte Aufzeichnungsmedium zwei Aufzeichnungsoberflächen umfaßt, weist das in Fig. 8 gezeigte DVD-Aufzeichnungsmedium die Aufzeichnungsoberflächen auf gegenüberliegenden Seiten der Disk auf, d. h., weist die erste Datenaufzeichnungsoberfläche RS1 auf der Seite SA und die zweite Datenaufzeichnungsoberfläche RS2 auf der Seite SB auf. Es ist ebenfalls offensichtlich, daß, während auf einer Digital-Video-Disk in diesem Beispiel nur zwei Aufzeichnungsoberflächen gezeigt sind, mehr als zwei Aufzeichnungsoberflächen ebenfalls auf einer doppelseitigen Digital-Video-Disk ausgebildet sein können. Wie bei dem in Fig. 7 gezeigten Aufzeichnungsmedium ist es ebenfalls möglich, zwei getrennte Laserstrahlen LS1 und LS2 für die Aufzeichnungsoberflächen RS1 und RS2 vorzusehen, oder beide Aufzeichnungsoberflächen RS1 und RS2 unter Verwendung eines einzelnen Laserstrahles zu lesen/schreiben. Es ist anzumerken, daß diese Art Digital-Video-Disk als "doppelseitige Doppelschicht- Disk" bezeichnet wird. Es ist ebenfalls offensichtlich, daß eine doppelseitige Digital- Video-Disk zwei oder mehr Aufzeichnungsoberflächen pro Seite umfassen kann. Diese Art Disk wird als "doppelseitige Mehrfachschicht-Disk" bezeichnet.
  • Eine Draufsicht von der Laserstrahl-LS-Beleuchtungsseite der Aufzeichnungsoberfläche RS des DVD-Aufzeichnungsmediums RC ist in Fig. 9 und Fig. 10 gezeigt.
  • Es ist anzumerken, daß eine fortlaufende, spiralförmige Datenaufzeichnungsspur TR von dem inneren Umfang zu dem äußeren Umfang der DVD vorgesehen ist. Die Datenaufzeichnungsspur TR ist in mehrere Sektoren aufgeteilt, von denen jeder die gleiche bekannte Speicherkapazität aufweist. Es ist anzumerken, daß zur Vereinfachung nur die Datenaufzeichnungsspur TR in Fig. 9 mit mehr als drei Sektoren pro Umdrehung gezeigt ist.
  • Wie in Fig. 9 gezeigt, ist die Datenaufzeichnungsspur TR normalerweise im Uhrzeigersinn von innen nach außen (siehe den Pfeil DrA) von dem inneren Endpunkt IA an dem inneren Umfang der Disk RCA zu dem äußeren Endpunkt OA an dem äußeren Umfang der Disk ausgebildet, wobei die Disk RCA im Gegenuhrzeigersinn RdA rotiert. Diese Art von Disk RCA wird Uhrzeigersinn-Disk genannt und die darauf ausgebildete Aufzeichnungsspur wird als Uhrzeigersinn-Spur TRA bezeichnet.
  • Abhängig von der Anwendung kann die Aufzeichnungsspur TRB im Uhrzeigersinn vom äußeren zum inneren Umfang (siehe Pfeil DrB in Fig. 10) von dem äußeren Endpunkt OB an dem äußeren Umfang der Disk RCB zu dem inneren Endpunkt IB an dem inneren Umfang der Disk ausgebildet sein, wobei die Disk RCB im Uhrzeigersinn RdB rotiert. Da sich die Aufzeichnungsspur im Gegenuhrzeigersinn zu winden scheint, wenn sie von dem inneren Umfang zu dem äußeren Umfang auf Disks betrachtet wird, wobei die Aufzeichnungsspur in der Richtung des Pfeiles DrB ausgebildet ist, werden diese Disks als Gegenuhrzeigersinn-Disk RCB mit Gegenuhrzeigersinn-Spur TRB bezeichnet, um sie von der Disk RCA in Fig. 9 zu unterscheiden. Es ist anzumerken, daß die Spurrichtungen DrA und DrB die Spurpfade sind, auf welchen sich der Laserstrahl bewegt, wenn er die Spuren zur Aufzeichnung und Wiedergabe abtastet. Die Richtung der Disk-Rotation RdA, in welcher sich die Disk RCA dreht, ist entgegengesetzt zu der Richtung des Spurpfades DrA und die Richtung der Disk-Rotation RdB, in welcher sich die Disk RCB dreht, ist somit entgegengesetzt der Richtung des Spurpfades DrB.
  • Eine Explosionsansicht der in Fig. 7 gezeigten einseitigen Doppelschicht-Disk RC2 ist als Disk RC2o in Fig. 11 gezeigt. Es ist anzumerken, daß die auf den zwei Aufzeichnungsoberflächen ausgebildeten Aufzeichnungsspuren in entgegengesetzten Richtungen verlaufen. Insbesondere ist eine Uhrzeigersinn-Aufzeichnungsspur TRA, wie in Fig. 9 gezeigt, in der Uhrzeigersinn-Richtung DrA auf der (unteren) ersten Datenaufzeichnungsoberfläche RS1 ausgebildet und eine Gegenuhrzeigersinn-Aufzeichnungsspur TRB, die im Gegenuhrzeigersinn DrB ausgebildet ist, wie in Fig. 10 gezeigt, ist auf der (oberen) zweiten Datenaufzeichnungsoberfläche RS2 vorgesehen. Als Ergebnis befinden sich die äußeren Endpunkte OA und OB der ersten und zweiten (oberen und unteren) Spuren an der gleichen radialen Position relativ zu der Mittelachse der Disk RC2o. Es ist anzumerken, daß Spurpfade DrA und DrB der Spuren TR ebenfalls die Daten-Lese/Schreib-Richtungen der Disk RC sind. Die ersten und zweiten (oberen und unteren) Aufzeichnungsspuren verlaufen somit entgegengesetzt zueinander bei dieser Disk RC, d. h., die Spurpfade DrA und DrB der oberen und unteren Aufzeichnungsschichten sind entgegengesetzte Spurpfade.
  • Einseitige Doppelschicht-Disks des entgegengesetzten Spurpfadtyps RC2o rotieren in der Richtung RdA entsprechend der ersten Aufzeichnungsoberfläche RS1, wobei sich der Laserstrahl LS entlang des Spurpfades DrA bewegt, um der Aufzeichnungsspur auf der ersten Aufzeichnungsoberfläche RS1 zu folgen. Wenn der Laserstrahl LS den äußeren Endpunkt OA erreicht, kann der Laserstrahl LS auf den Endpunkt OB auf der zweiten Aufzeichnungsoberfläche RS2 neu fokussiert werden, um das Folgen der Aufzeichnungsspur von der ersten zu der zweiten Aufzeichnungsoberfläche ununterbrochen fortzusetzen. Der physikalische Abstand zwischen den Aufzeichnungsspuren TRA und TRB auf der ersten und zweiten Aufzeichnungsoberfläche RS1 und RS2 kann somit durch einfaches Anpassen der Fokussierung des Laserstrahles LS sofort beseitigt werden.
  • Daher ist es bei einer einseitigen Doppelschicht-Disk des entgegengesetzten Spurpfadtyps RC2o leicht möglich, die auf physikalisch getrennten, oberen und unteren Aufzeichnungsoberflächen angeordneten Aufzeichnungsspuren als eine fortlaufende Aufzeichnungsspur zu behandeln. Daher ist es bei einem wie oben anhand von Fig. 1 ausgebildeten Autorensystem ebenfalls möglich, den Multimedia-Bitstrom MBS, der die größte Multimedia-Datenverwaltungseinheit ist, auf zwei diskreten Aufzeichnungsoberflächen RS1 und RS2 auf einem einzelnen Aufzeichnungsmedium RC2o fortlaufend aufzuzeichnen.
  • Es ist anzumerken, daß die Spuren auf den Aufzeichnungsoberflächen RS1 und RS2 in Richtungen gewunden sein können, die den oben beschriebenen entgegengesetzt sind, d. h., die Gegenuhrzeigersinn-Spur TRB kann auf der ersten Aufzeichnungsoberfläche RS 1 vorgesehen sein und die Uhrzeigersinn-Spur TRA auf der zweiten Aufzeichnungsoberfläche RS2. In diesem Fall wird die Richtung der Disk- Rotation ebenfalls in eine Uhrzeigersinn-Rotation RdB geändert, um dadurch zu erlauben, daß die zwei Aufzeichnungsoberflächen als eine einzelne fortlaufende Aufzeichnungsspur umfassend verwendet werden, wie oben beschrieben. Zur Vereinfachung wird ein weiteres Beispiel dieser Art Disk daher unten weder gezeigt noch beschrieben.
  • Daher ist es durch diesen Aufbau der Digital-Video-Disk möglich, den Multimedia- Bitstrom MBS für einen Titel mit Spielfilm-Länge auf einer einseitigen Einzelschicht- Diskdes entgegengesetzten Spurpfadtyps RC2o aufzuzeichnen. Es ist anzumerken, daß diese Art Digital-Video-Disk-Medium einseitige Doppelschicht-Disk mit entgegengesetzten Spurpfaden genannt wird.
  • Ein weiteres Beispiel des in Fig. 7 gezeigten, einseitigen Doppelschicht-DVD- Aufzeichnungsmediums RC2 ist als Disk RC2p in Fig. 12 gezeigt. Die auf den ersten und zweiten Aufzeichnungsoberflächen RS1 und RS2 ausgebildeten Aufzeichnungsspuren sind Uhrzeigersinn-Spuren TRA, wie in Fig. 9 gezeigt. In diesem Fall rotiert die einseitige Doppelschicht-Disk RC2p im Gegenuhrzeigersinn in der Richtung des Pfeiles RdA, und die Richtung der Laserstrahl-LS-Bewegung ist die gleiche wie die Richtung der Spur-Spirale, d. h., die Spurpfade der oberen und unteren Aufzeichnungsoberflächen sind zueinander parallel (parallele Spurpfade). Die äußeren Endpunkte OA der oberen und unteren Spuren sind wiederum bevorzugt an der gleichen Radialposition relativ zu der Mittelachse der Disk RC2p angeordnet, wie oben beschrieben. Wie ebenfalls oben bei der in Fig. 11 gezeigten Disk RC2o beschrieben, kann der Zugriffspunkt sofort von dem äußeren Endpunkt OA der Spur TRA auf der ersten Aufzeichnungsoberfläche RS1 zu dem äußeren Endpunkt OA der Spur TRA auf der zweiten Aufzeichnungsoberfläche RS2 durch geeignetes Anpassen der Fokussierung des Laserstrahles LS am äußeren Endpunkt OA verschoben werden.
  • Damit jedoch der Laserstrahl LS die Uhrzeigersinn-Aufzeichnungsspur TRA auf der zweiten Aufzeichnungsoberfläche RS2 fortlaufend ansprechen kann, muß das Aufzeichnungsmedium RC2p in einer entgegengesetzten Richtung angetrieben werden (Uhrzeigersinn, entgegengesetzt der Richtung RdA). Abhängig von der Radialposition des Laserstrahles LS ist es jedoch ineffizient, die Rotationsrichtung des Aufzeichnungsmediums zu ändern. Wie durch den diagonalen Pfeil in Fig. 12 gezeigt, wird der Laserstrahl LS daher von dem äußeren Endpunkt OA der Spur auf der ersten Aufzeichnungsoberfläche RS1 zu dem inneren Endpunkt IA der Spur auf der zweiten Aufzeichnungsoberfläche RS2 bewegt, um diese physikalisch getrennten Aufzeichnungsspuren als eine logisch fortgesetzte Aufzeichnungsspur zu verwenden.
  • Anstelle der Verwendung der Aufzeichnungsspuren auf den oberen und unteren Aufzeichnungsoberflächen als eine fortlaufende Aufzeichnungsspur ist es ebenfalls möglich, die Aufzeichnungsspuren zum Aufzeichnen der Multimedia-Bitströme MBS für unterschiedliche Titel zu verwenden. Diese Art von Digital-Video-Disk-Aufzeichnungsmedium wird als "einseitige Doppelschicht-Disk mit parallelen Spurpfaden" bezeichnet.
  • Es ist anzumerken, daß, wenn die Richtung der auf den Aufzeichnungsoberflächen RS1 und RS2 ausgebildeten Spuren zu den oben beschriebenen entgegengesetzt ist, d. h., daß Gegenuhrzeigersinn-Aufzeichnungsspuren TRB ausgebildet sind, der Disk-Betrieb der gleiche bleibt wie der oben beschriebene, mit Ausnahme der Richtung der Disk-Rotation, welche im Uhrzeigersinn ist, wie durch den Pfeil RdB gezeigt.
  • Die somit beschriebene einseitige Doppelschicht-Disk RC2p mit parallelen Spurpfaden, gleich, ob sie Uhrzeigersinn- oder Gegenuhrzeigersinn-Aufzeichnungsspuren verwendet, ist zum Speichern einer Enzyklopädie und vergleichbarer Multimedia- Bitströme mit mehreren Titeln, die häufig und zufällig angesprochen werden, auf einer einzelnen Disk gut geeignet.
  • Eine Explosionsansicht des doppelseitigen Einzelschicht-DVD-Aufzeichnungsmediums RC3 mit einer Aufzeichnungsoberflächenschicht RS1 und RS2 auf jeder Seite, wie in Fig. 8 gezeigt, ist als DVD-Aufzeichnungsmedium RC3 s in Fig. 13 gezeigt. Eine Uhrzeigersinn-Aufzeichnungsspur TRA ist auf der einen Aufzeichnungsoberfläche RS1 vorgesehen und eine Gegenuhrzeigersinn-Aufzeichnungsspur TRB ist auf der anderen Aufzeichnungsoberfläche RS2 vorgesehen. Wie bei den vorausgehenden Aufzeichnungsmedien sind die äußeren Endpunkte OA und OB der Aufzeichnungsspuren auf jeder Aufzeichnungsoberfläche bevorzugt an der gleichen Radialposition relativ zu der Mittelachse des DVD-Aufzeichnungsmediums RC3s angeordnet.
  • Es ist anzumerken, daß, während die Aufzeichnungsspuren auf diesen Aufzeichnungsoberflächen RS1 und RS2 in entgegengesetzten Richtungen rotieren, die Spurpfade symmetrisch sind. Diese Art von Aufzeichnungsmedium ist daher als doppelseitige Doppelschicht-Disk mit symmetrischen Spurpfaden bekannt. Diese doppelseitige Doppelschicht-Disk mit symmetrischen Spurpfaden RC3s rotiert in der Richtung RdA beim Lesen/Schreiben der ersten Aufzeichnungsoberfläche RS1. Als Ergebnis verläuft der Spurpfad auf der zweiten Aufzeichnungsoberfläche RS2 auf der gegenüberliegenden Seite entgegengesetzt der Richtung DrB, in welcher die Spurverläuft, d. h., in der Richtung DrA. Ein Zugreifen auf beide Aufzeichnungsoberflächen RS1 und RS2 unter Verwendung eines einzelnen Laserstrahles LS ist daher nicht realistisch, ungeachtet dessen, ob der Zugriff fortlaufend oder nicht fortlaufend ist. Zusätzlich ist ein Multimedia-Bitstrom MBS getrennt auf den Aufzeichnungsoberflächen auf den ersten und zweiten Seiten der Disk aufgezeichnet.
  • Ein anderes Beispiel der in Fig. 8 gezeigten doppelseitigen Einzelschicht-Disk RC3 ist in Fig. 14 als Disk RC3a gezeigt. Es ist anzumerken, daß diese Disk Uhrzeigersinn-Aufzeichnungsspuren TRA, wie in Fig. 9 gezeigt, auf beiden Aufzeichnungsoberflächen RS1 und RS2 umfaßt. Wie bei den vorausgehenden Aufzeichnungsmedien sind die äußeren Endpunkte OA und OA der Aufzeichnungsspuren auf jeder Aufzeichnungsoberfläche bevorzugt an der gleichen radialen Position relativ zur Mittelachse des DVD-Aufzeichnungsmediums RC3a angeordnet. Abweichend von der oben beschriebenen doppelseitigen Doppelschicht-Disk mit symmetrischen Spurpfaden RC3s sind die Spuren auf diesen Aufzeichnungsoberflächen RS1 und RS2 asymmetrisch. Diese Art Disk ist daher als doppelseitige Doppelschicht-Disk mit asymmetrischen Spurpfaden bekannt. Diese doppelseitige Doppelschicht-Disk mit asymmetrischen Spurpfaden RC3a rotiert beim Lesen/Schreiben der ersten Aufzeichnungsoberfläche RS1 in der Richtung RdA. Als Ergebnis verläuft der Spurpfad auf der zweiten Aufzeichnungsoberfläche RS2 auf der gegenüberliegenden Seite entgegengesetzt der Richtung DrA, in welcher die Spur verläuft, d. h., in der Richtung DrB.
  • Dies bedeutet, daß, wenn ein Laserstrahl LS fortlaufend von dem inneren Umfang zu dem äußeren Umfang der ersten Aufzeichnungsoberfläche RS1 bewegt wird, und dann von dem äußeren Umfang zu dem inneren Umfang auf der zweiten Aufzeichnungsoberfläche RS2, beide Seiten des Aufzeichnungsmediums RC3a gelesen/geschrieben werden können, ohne die Disk umzudrehen und ohne verschiedene Laserstrahlen für die zwei Seiten bereitzustellen.
  • Die Spurpfade für die Aufzeichnungsoberflächen RS1 und RS2 sind bei dieser doppelseitigen Doppelschicht-Disk mitasymmetrischen Spurpfaden RC3a ebenfalls die gleichen. Als Ergebnis ist es ebenfalls möglich, beide Seiten der Disk zu lesen/- schreiben, ohne getrennte Laserstrahlen für jede Seite vorzusehen, wenn das Aufzeichnungsmedium RC3a zwischen den Seiten umgedreht wird, und die Lese/- Schreib-Vorrichtung kann daher ökonomisch aufgebaut werden.
  • Es ist anzumerken, daß dieses Aufzeichnungsmedium funktional identisch bleibt, auch wenn Gegenuhrzeigersinn-Aufzeichnungsspuren TRB anstelle der Uhrzeigersinn-Aufzeichnungsspuren TRA auf beiden Aufzeichnungsoberflächen RS1 und RS2 vorgesehen sind.
  • Wie oben beschrieben, wird der wahre Wert eines DVD-Systems, bei welchem die Speicherkapazität des Aufzeichnungsmediums durch Verwendung einer Mehrfachschicht-Aufzeichnungsoberfläche leicht erhöht werden kann, in Multimedia- Anwendungen verwirklicht, bei welchen mehrere Video-Dateneinheiten, mehrere Audio-Dateneinheiten und mehrere Grafik-Dateneinheiten, die auf einer einzelnen Disk aufgezeichnet sind, durch interaktive Eingaben durch den Benutzer wiedergegeben werden.
  • Daher ist es möglich, einen lange gehegten Wunsch von Software-(Programm)- Anbietern zu verwirklichen, insbesondere einen Programminhalt wie einen kommerziellen Film auf einem einzelnen Aufzeichnungsmedium in mehreren Versionen für unterschiedliche Sprachen und demografische Gruppen bereitzustellen, während die Bildqualität des Originals erhalten bleibt.
  • Eltern-Steuerung
  • Inhaltsanbieter eines Filmes oder Videotitels mußten konventionell den Bestand einzelner Titel in mehreren Sprachen, typisch der Sprache jedes Distributionsmarktes und mehrfach-bewertete Titelpakete entsprechend den Eltern-Steuerungs- (Zensur-)Regeln einzelner Länder in Europa und Nordamerika herstellen, liefern und verwalten. Die dafür benötigte Zeit und Ressourcen sind signifikant. Während eine hohe Bildqualität offensichtlich wichtig ist, muß der Programminhalt ebenfalls konsistent wiedergebbar sein.
  • Das Digital-Video-Disk-Aufzeichnungsmedium ist nahe an der Lösung dieser Probleme.
  • Mehrere Winkel
  • Ein heute bei Multimedia-Anwendungen vielfach gefragter Vorgang ist, daß der Benutzer in der Lage ist, während der Wiedergabe der Szene die Position zu ändern, von welcher eine Szene betrachtet wird. Diese Fähigkeit wird durch die Mehrfachwinkel-Funktion verwirklicht.
  • Diese Mehrfachwinkel-Funktion macht Anwendungen möglich, bei welchen zum Beispiel ein Benutzer ein Baseballspiel aus unterschiedlichen Winkeln (oder virtuellen Positionen in dem Stadion) beobachten kann und frei zwischen den Ansichten umschalten kann, während die Betrachtung weitergeht. In diesem Beispiel eines Baseballspiels können die verfügbaren Winkelpositionen hinter dem Backstop, zentriert auf den Catcher, Batter und Pitcher beinhalten, oder von hinter dem Backstop, zentriert auf einen Fielder, den Pitcher und den Catcher und vom Mittelfeld mit Sicht auf den Pitcher und Catcher.
  • Um diesen Anforderungen zu genügen, verwendet das Digital-Video-Disk-System MPEG das gleiche Basis-Standardformat, das bei Video-CDs zum Aufzeichnen der Video-, Audio-, Grafik- und anderen Signaldaten verwendet wird. Wegen der Unterschiede bei der Speicherkapazität, den Übertragungsgeschwindigkeiten und der Signalverarbeitungs-Leistungsfähigkeit innerhalb der Wiedergabevorrichtung verwendet DVD MPEG2, dessen Kompressionsverfahren und Datenformat sich geringfügig von dem bei Video-CDs verwendeten MPEG 1-Format unterscheiden.
  • Es ist anzumerken, daß der Inhalt von und die Unterschiede zwischen den MPEG 1- und MPEG2-Standards keine direkte Beziehung zu dem Zweck der vorliegenden Erfindung haben, und auf eine weitere Beschreibung unten wird daher verzichtet (für weitere Informationen siehe die MPEG-Spezifikationen ISO-11172 und ISO- 13818).
  • Der Datenaufbau des erfindungsgemäßen DVD-Systems wird detailliert unten anhand der Fig. 16, 17, 18, 19, 20 und 21 beschrieben.
  • Mehrfachszenen-Steuerung
  • Eine voll funktionale und praktische Eltern-Sperr-Wiedergabefunktion und Mehrfachwinkelszenen-Wiedergabefunktion muß den Benutzer in die Lage versetzen, die Systemausgabe in kleinen, einfühlsamen Schritten zu modifizieren, während noch im wesentlichen die gleiche Video- und Audio-Ausgabe dargestellt wird. Wenn diese Funktionen durch Erstellen und Aufzeichnen getrennter Titel verwirklicht werden, welche jede der vielen möglichen Eltern-Sperr- und Mehrfachwinkel- Szenenwiedergabe-Anforderungen erfüllen, müssen Titel, die im wesentlichen identisch sind und sich nur geringfügig unterscheiden, auf dem Aufzeichnungsmedium aufgezeichnet werden. Dies resultiert in identischen Daten, die wiederholt auf dem größeren Teil des Aufzeichnungsmediums aufgezeichnet werden und die Verwendungs-Effizienz der verfügbaren Speicherkapazität signifikant verringern. Insbesondere ist es tatsächlich unmöglich, diskrete Titel aufzuzeichnen, welche jede mögliche Anforderung erfüllen, auch unter Verwendung der massiven Kapazität des Digital-Video-Disk-Mediums. Während angenommen werden kann, daß dieses Problem leicht lösbar ist durch Erhöhen der Kapazität des Aufzeichnungsmediums, ist dies eine offensichtlich unerwünschte Lösung, wenn eine effektive Verwendung verfügbarer Systemressourcen berücksichtigt wird.
  • Unter Verwendung einer Mehrfachszenensteuerung, deren Konzept in einem anderen Abschnitt unten beschrieben wird, in einem DVD-System ist es möglich, Titel für zahlreiche Variationen des gleichen Basisinhalts unter Verwendung der kleinstmöglichen Datenmenge dynamisch aufzubauen und dadurch die verfügbaren Systemressourcen (Aufzeichnungsmedium) effizient zu nutzen. Insbesondere sind Titel, die in zahlreichen Variationen wiedergegeben werden können, aufgebaut aus (gemeinsamen) Basis-Szenenperioden mit jedem Titel gemeinsamen Daten und Mehrfachszenenperioden mit Gruppen unterschiedlicher Szenen entsprechend den verschiedenen Anforderungen. Während der Wiedergabe ist der Benutzer in der Lage, frei und jederzeit bestimmte Szenen aus den Mehrfachszenenperioden auszuwählen, um einen Titel entsprechend dem gewünschten Inhalt dynamisch aufzubauen, zum Beispiel einen Titel, der bestimmte Szenen vermeidet, unter Verwendung der Eltern-Sperr-Steuerungsfunktion.
  • Es ist anzumerken, daß die eine Eltern-Sperr-Wiedergabe-Steuerungsfunktion und Mehrfachwinkel-Szenenwiedergabe ermöglichende Mehrfachszenensteuerung in einem weiteren Abschnitt unten anhand von Fig. 21 beschrieben wird.
  • Datenaufbau des DVD-Systems
  • Der bei dem Autorensystem eines erfindungsgemäßen Digital-Video-Disk-Systems verwendete Datenaufbau ist in Fig. 22 gezeigt. Zum Aufzeichnen eines Multimedia- Bitstromes MBS teilt dieses Digital-Video-Disk-System das Aufzeichnungsmedium in drei Haupt-Aufzeichnungsbereiche, den Eingangsbereich LI, den Volumenbereich VS und den Ausgangsbereich LO, auf.
  • Der Eingangsbereich LI ist an dem inneren Umfangsbereich der optischen Disk vorgesehen. Bei den anhand der Fig. 9 und 10 beschriebenen Disks ist der Eingangsbereich LI an den inneren Endpunkten IA und IB jeder Spur vorgesehen. Daten zum Stabilisieren des Betriebs der Wiedergabevorrichtung beim Beginn des Lesens sind in den Eingangsbereich LI geschrieben.
  • Der Ausgangsbereich LO ist entsprechend an dem äußeren Umfang der optischen Disk angeordnet, d. h., an den äußeren Endpunkten OA und OB jeder Spur bei den anhand der Fig. 9 und 10 beschriebenen Disks. Das Ende des Volumenbereiches VS angebende Daten sind in diesem Ausgangsbereich LO aufgezeichnet.
  • Der Volumenbereich VS ist zwischen dem Eingangsbereich LI und dem Ausgangsbereich LO angeordnet und ist als eine eindimensionale Matrix aus n + 1 (wobei n eine ganze Zahl größer oder gleich Null ist) 2048-Byte-Logiksektoren LS aufgezeichnet. Die Logiksektoren LS sind fortlaufend numeriert mit #0, #1, #2, ... #n. Der Volumenbereich VS ist ebenfalls in einen Volumen- und Dateiaufbau-Verwaltungsbereich VFS und einen Datei-Datenaufbaubereich FDS aufgeteilt.
  • Der Volumen- und Dateiaufbau-Verwaltungsbereich VFS umfaßt m + 1 Logiksektoren LS#0 bis LS#m (wobei m eine ganze Zahl größer oder gleich Null und geringer als n ist). Der Datei-Datenaufbau FDS umfaßt n-m Logiksektoren LS #m + 1 bis LS #n.
  • Es ist anzumerken, daß dieser Datei-Datenaufbaubereich FDS dem in Fig. 1 gezeigten und oben beschriebenen Multimedia-Bitstrom MBS entspricht.
  • Der Volumen-Dateiaufbau VFS ist das Dateisystem zum Verwalten der in dem Volumenbereich VS als Dateien gespeicherten Daten und ist in Logiksektoren LS#0 -LS#m aufgeteilt, wobei m die Anzahl der zum Speichern sämtlicher zum Verwalten der gesamten Disk benötigten Daten erforderlichen Sektoren ist und eine natürliche Zahl geringer als n ist. Die Information für die in dem Datei-Datenaufbaubereich FDS gespeicherten Dateien wird entsprechend einer bekannten Spezifikation wie ISO-9660 oder ISO-13346 in den Volumen-Dateiaufbau VFS gechrieben.
  • Der Datei-Datenaufbaubereich FDS umfaßt n-m Logiksektoren LS#m-LS#n, die jeder eine Videoverwaltung VMG umfassen, die mit einem ganzzahligen Vielfachen des Logiksektors (2048 · I, wobei I eine bekannte ganze Zahl ist) bemessen ist, und k Video-Titelsätzen VTS #1 - VTS#k (wobei k eine natürliche Zahl unter 100 ist).
  • Die Videoverwaltung VMG speichert die Titelverwaltungsinformation für die gesamte Disk und die Information zum Aufbauen eines Volumen-Menüs, das zum Einstellen und Ändern des gesamten Volumens verwendet wird.
  • Jeder Video-Titelsatz VTS #k wird ebenfalls als "Videodatei" bezeichnet, welche einen Titel mit Video-, Audio- und/oder Standbild-Daten umfaßt.
  • Der innere Aufbau jedes in Fig. 22 gezeigten Videotitelsatzes VTS ist in Fig. 16 gezeigt. Jeder Videotitelsatz VTS umfaßt VTS-Informationen VTSI, welche die Verwaltungsinformation für die gesamte Disk beschreiben, und die VTS-Titel- Videoobjekte VOB (VTSTT_VOBS), d. h., den Systemstrom des Multimedia-Bitstromes. Die VTS-Information VTSI wird zuerst unten beschrieben, gefolgt von dem VTS-Titel-VOBS.
  • Die VTS-Information beinhaltet primär die VTSI-Verwaltungstabelle VTSI_MAT und die VTSPGC-Informationstabelle VTS_PGCIT.
  • Die VTSI-Verwaltungstabelle VTSI_MAT speichert solche Informationen wie den inneren Aufbau des Videotitelsatzes VTS, die Anzahl der in dem Videotitelsatz VTS enthaltenen, auswählbaren Audioströme, die Anzahl von Sub-Bildern und die Videotitelsatz-VTS-Position (Speicheradresse).
  • Die VTSPGC-Informationstabelle VTS_PGCIT zeichnet i (wobei i eine natürliche Zahl ist) Programmketten-(PGC)-Datenblöcke VTS_PGC1 #1 - VTS_PGCI #i zum Steuern der Wiedergabesequenz auf. Jeder der Tabelleneinträge VTS_PGCI #i ist ein Dateneintrag, der die Programmkette ausdrückt und umfaßt j (wobei j eine natürliche Zahl ist) Zellenwiedergabe-Informationsblöcke C_PBI #1 - C_PBI #j. Jeder Zellenwiedergabe-Informationsblock C_PBI #j enthält die Wiedergabesequenz der Zelle und die Wiedergabe-Steuerungsinformation.
  • Die Programmkette PGC ist ein konzeptioneller Aufbau, welcher den Ablauf des Titelinhalts beschreibt und bestimmt daher den Aufbau jedes Titels durch Beschreiben der Zellenwiedergabesequenz. Es ist anzumerken, daß diese Zellen detailliert unten beschrieben sind.
  • Wenn sich zum Beispiel die Videotitelsatz-Information auf die Menüs bezieht, wird die Vitdeotitelsatz-Information VTSI in einem Puffer in der Wiedergabevorrichtung gespeichert, wenn die Wiedergabe beginnt. Wenn der Benutzer dann einen MENÜ- Knopf auf einer Fernsteuerung zum Beispiel während der Wiedergabe drückt, spricht die Wiedergabevorrichtung den Puffer an, um die Menü-Information zu holen und das obere Menü #1 anzuzeigen. Wenn die Menüs hierarchisch sind, kann das als Programmketten-Information VTS_PGC1 #1 gespeicherte Hauptmenü angezeigt werden, zum Beispiel durch Drücken des MENÜ-Knopfes, VTS_PGC1 #2 - #9 können Untermenüs entsprechen, die unter Verwendung der numerischen Tastatur auf der Fernbedienung angesprochen werden, und VTS_PGC1 #10 und höher können zusätzlichen Untermenüs weiter unten in der Hierarchie entsprechen. Alternativ kann VTS_PGC1 #1 das durch Drücken des MENÜ-Knopfes angezeigte oberste Menü sein, während VTS_PGC1 #2 und höher eine Sprachführung sein können, die durch Drücken der entsprechenden numerischen Taste wiedergegeben werden.
  • Die Menüs selbst werden durch die in dieser Tabelle definierten mehreren Programmketten ausgedrückt. Als Ergebnis können die Menüs auf verschiedene Weise frei aufgebaut werden und sollen nicht auf hierarchische oder nicht-hierarchische Menüs oder Menüs mit Sprachführung beschränkt sein.
  • In dem Fall eines Films wird zum Beispiel die Videotitelsatz-Information VTSI in einem Puffer in der Wiedergabevorrichtung gespeichert, wenn die Wiedergabe beginnt, die Wiedergabevorrichtung bezieht sich auf die durch die Programmkette PGC beschriebene Zellenwiedergabesequenz und gibt den Systemstrom wieder.
  • Die hier angesprochenen "Zellen" können sämtlich oder teilweise aus dem Systemstrom sein und werden als Ansprechpunkte während der Wiedergabe verwendet. Zellen können daher zum Beispiel als die "Abschnitte" verwendet werden, in welche ein Titel aufgeteilt sein kann.
  • Es ist anzumerken, daß jeder der PGC-Informationseinträge C_PBI #j Zellenwiedergabe-Verarbeitungsinformationen und eine Zellen-Informationstabelle enthält. Die Zellenwiedergabe-Verarbeitungsinformationen umfassen die zum Wiedergeben der Zelle benötigten Verarbeitungsinformationen wie die Darstellungszeit und die Anzahl von Wiederholungen. Diese Information beinhaltet insbesondere den Zellenblockmodus CBM, den Zellenblocktyp CBT, das Unterbrechungsfrei-Wiedergabe- Flag SPF, das Verschachtelungs-Zuordnungsflag IAF, das STC-Rücksetzflag STCDF, die Zellen-Darstellungszeit C_PBTM, das Unterbrechungsfrei-Winkeländerungs-Flag SACF, die VOBU-Anfangsadresse der ersten Zelle C_FVOBU_SA und die VOBU-Anfangsadresse der letzten Zelle C_LVOBU_SA.
  • Es ist anzumerken, daß sich eine unterbrechungsfreie Wiedergabe auf die Wiedergabe in einem Digital-Video-Disk-System mit Multimediadaten einschließlich Video-, Audio- und Sub-Bild-Daten ohne intermittierende Unterbrechungen in den Daten oder der Information bezieht. Eine unterbrechungsfreie Wiedergabe wird detailliert in einem anderen Abschnitt unten anhand von Fig. 23 und Fig. 24 beschrieben.
  • Der Zellenblockmodus CBM zeigt an, ob mehrere Zellen einen funktionalen Block bilden. Die Zellenwiedergabe-Information jeder Zelle in einem funktionalen Block ist aufeinanderfolgend in der PGC-Information angeordnet. Der Zellenblockmodus CBM der Wiedergabe-Information der ersten Zelle in dieser Sequenz enthält den Wert der ersten Zelle in dem Block und der Zellenblockmodus CBM der Wiedergabe-Information der letzten Zelle in dieser Folge enthält den Wert der letzten Zelle in dem Block. Der Zellenblockmodus CBM jeder zwischen dieser ersten und letzten Zelle angeordneten Zelle enthält einen Wert, der anzeigt, daß die Zelle eine Zelle zwischen diesen ersten und letzten Zellen in dem Block ist.
  • Der Zellenblocktyp CBT gibt den Typ des durch den Zellenblockmodus CBM angezeigten Blockes an. Wenn zum Beispiel eine Mehrfachwinkelfunktion ermöglicht ist, ist die Zeileninformation entsprechend jedem der wiedergebbaren Winkel als einer der oben erwähnten, funktionalen Blöcke programmiert und der Typ dieser funktionalen Blöcke wird durch einen "Winkel" identifizierenden Wert in dem Zellenblocktyp CBT für jede Zelle in dem Block bestimmt.
  • Das Unterbrechungsfrei-Wiedergabe-Flag SPF zeigt einfach an, ob die entsprechende Zelle mit der unmittelbar davor wiedergegebenen Zelle oder dem Zellenblock zu verbinden und unterbrechungsfrei wiederzugeben ist. Um eine gegebene Zelle mit der vorausgehenden Zelle oder dem Zellenblock unterbrechungsfrei wiederzugeben, wird das Unterbrechungsfrei-Wiedergabe-Flag SPF in der Zellenwiedergabe-Information für diese Zelle auf 1 gesetzt; anderenfalls wird SPF auf 0 gesetzt.
  • Das Verschachtelungs-Zuordnungsflag IAF speichert einen Wert, der angibt, ob die Zelle in einem fortlaufenden oder verschachtelten Block vorhanden ist. Wenn die Zelle Teil eines verschachtelten Blockes ist, wird das Flag IAF auf 1 gesetzt, anderenfalls wird es auf 0 gesetzt.
  • Das STC-Rücksetzflag STCDF gibt an, ob der zur Synchronisierung verwendete System-Zeittakt STC zurückgesetzt werden muß, wenn die Zelle wiedergegeben wird; wenn ein Zurücksetzen des System-Zeittaktes STC erforderlich ist, wird das STC-Rücksetzflag STCDF auf 1 gesetzt.
  • Das Unterbrechungsfrei-Titeländerungs-Flag SACF speichert einen Wert, der angibt, ob eine Zelle in einer Mehrfachwinkelperiode unterbrechungsfrei bei einer Winkeländerung verbunden werden soll. Wenn die Winkeländerung unterbrechungsfrei ist, wird das Unterbrechungsfrei-Winkeländerungs-Flag SACF auf 1 gesetzt, anderenfalls wird es auf 0 gesetzt.
  • Die Zellen-Darstellungszeit C_PBTM drückt die Zellen-Darstellungszeit mit Videorahmen-Genauigkeit aus.
  • Die VOBU-Anfangsadresse der ersten Zelle C_FVOBU_SA ist die VOBU-Anfangsadresse der ersten Zelle in einem Block und wird ebenfalls als die Distanz von dem Logiksektor der ersten Zelle in dem VTS-Titel-VOBS (VTSTT_VOBS) ausgedrückt, wie durch die Anzahl der Sektoren gemessen.
  • Die VOBU-Anfangsadresse der letzten Zelle C_LVOBU_SA ist die VOBU-Anfangsadresse der letzten Zelle in dem Block. Der Wert dieser Adresse wird als die Distanz von dem Logiksektor der ersten Zelle in dem VTS-Titel-VOBS (VTSTT_VOBS) ausgedrückt, wie durch die Anzahl der Sektoren gemessen.
  • Der VTS-Titel-VOBS (VTSTT_VOBS), d. h., die Multimedia-Systemstromdaten werden als nächstes beschrieben. Die Systemstromdaten VTSTT_VOBS umfassen i (wobei i eine natürliche Zahl ist) Systemströme SS, von denen jeder als ein "Videoobjekt" (VOB) bezeichnet wird. Jedes Videoobjekt VOB #1 - VOB #i umfaßt wenigstens einen Videodatenblock, der mit bis zu maximal acht Audiodatenblöcken und bis zu maximal 32 Sub-Bild-Datenblöcken verschachtelt ist.
  • Jedes Videoobjekt VOB umfaßt q (wobei q eine natürliche Zahl ist) Zellen C#1 - C#q. Jede Zelle C umfaßt r (wobei r eine natürliche Zahl ist) Video-Objekteinheiten VOBU #1 - VOBU #r.
  • Jede Video-Objekteinheit VOBU umfaßt mehrere Bildergruppen GOP und den Ton und die Sub-Bilder entsprechend der Wiedergabe der mehreren Bildergruppen GOP. Es ist anzumerken, daß die Bildergruppe GOP dem Videokodierungs-Refresh-Zyklus entspricht. Jede Video-Objekteinheit VOBU beginnt ebenfalls mit einem NV-Paket, d. h., den Steuerungsdaten für dieses VOBU.
  • Der Aufbau der Navigationspakete NV wird anhand von Fig. 18 beschrieben.
  • Vor dem Beschreiben des Navigationspaketes NV wird der innere Aufbau der Videozone VZ (siehe Fig. 22), d. h., der anhand von Fig. 25 beschriebene, durch den Autorenkodierer EC kodierte Systemstrom St35 anhand von Fig. 17 beschrieben. Es ist anzumerken, daß der in Fig. 17 gezeigte, kodierte Videostrom St15 der durch den Videokodierer 300 kodierte, komprimierte, eindimensionale Videodatenstrom ist. Der kodierte Audiostrom St19 ist vergleichbar der die rechten und linken Stereo-Audiokanäle multiplexende, durch den Audiokodierer 700 kodierte, komprimierte, eindimensionale Audio-Datenstrom. Es ist anzumerken, daß das Audiosignal nicht auf ein Stereosignal beschränkt sein soll und ebenfalls ein Mehrfachkanal-Surround-Sound-Signal sein kann.
  • Der Systemstrom (Titelbearbeitungseinheit VOB) St35 ist eine eindimensionale Matrix aus Paketen mit einer den Logiksektoren LS #n mit einer 2048-Byte-Kapazität, wie unter Verwendung von Fig. 21 beschrieben, entsprechenden Byte-Größe. Ein Strom-Steuerungspaket ist am Beginn der Titelbearbeitungseinheit (VOB) St35 plaziert, d. h., am Beginn der Video-Objekteinheit VOBU. Dieses Strom-Steuerungspaket wird als "Navigationspaket NV" bezeichnet und zeichnet die Datenanordnung in dem Systemstrom und andere Steuerungsinformationen auf.
  • Der kodierte Videostrom St15 und der kodierte Audiostrom St19 werden in Byte- Einheiten entsprechend den Systemstrom-Paketen paketiert. Diese Pakete sind in Fig. 17 gezeigt als Pakete V1, V2, V3, V4 ... und A1, A2, A3 ..... Wie in Fig. 17 gezeigt, sind diese Pakete in der geeigneten Sequenz als Systemstrom St35 verschachtelt und bilden somit einen Paketstrom unter Berücksichtigung der Dekodierer-Puffergröße und der von dem Dekodierer benötigten Zeit, um die Video- und Audio-Datenpakete zu erweitern. In dem in Fig. 17 gezeigten Beispiel wird der Paketstrom in der Sequenz V1, V2, A1, V3, V4, A2 .... verschachtelt.
  • Es ist anzumerken, daß die in Fig. 17 gezeigte Sequenz eine Video-Dateneinheit mit einer Audio-Dateneinheit verschachtelt. Signifikant erhöhte Aufzeichnungs-/Wiedergabe-Kapazität, Hochgeschwindigkeits-Aufzeichnungs/Wiedergabe und Leistungsverbesserungen in der Signalverarbeitung LS1 ermöglichen dem DVD-System, mehrere Audiodaten und mehrere Sub-Bild-Daten (Grafikdaten) in einer Video- Dateneinheit in einem einzelnen, verschachtelten MPEG-Systemstrom aufzuzeichnen und ermöglichen dem Benutzer damit, die bestimmten Audiodaten und Sub- Bild-Daten zu selektieren, die während der Wiedergabe wiederzugeben sind. Der Aufbau des bei dieser Art von DVD-System verwendeten Systemstromes ist in Fig. 18 gezeigt und unten beschrieben.
  • Wie in Fig. 17 ist der paketierte, kodierte Videostrom St15 in Fig. 18 als V1, V2, V3, V4 .... gezeigt. In diesem Beispiel ist jedoch nicht nur ein kodierter Audiostrom St19 vorhanden, sondern drei kodierte Audioströme St19A, St19B und St19C werden als die Quellendaten eingegeben. Es werden ebenfalls zwei kodierte Sub- Bild-Ströme St17A und St17B als die Quellendaten-Sub-Bild-Ströme eingegeben. Diese sechs komprimierten Datenströme St15, St19A, St19B, St19C, St17A und St17B sind zu einem einzelnen Systemstrom St35 verschachtelt.
  • Die Videodaten sind entsprechend der MPEG-Spezifikation mit der Bildergruppe GOP als Einheit der Kompression kodiert. Allgemein enthält jede Bildergruppe GOP 15 Rahmen im Falle eines NTSC-Signals, die bestimmte Anzahl von in einer GOP komprimierten Rahmen ist variabel. Das Strom-Verwaltungspaket, welches die Verwaltungsdaten beschreibt, die zum Beispiel die Beziehung zwischen den verschachtelten Daten enthalten, wird ebenfalls in dem GOP-Einheitenintervall verschachtelt. Da diese Bildergruppen-GOP-Einheit auf den Videodaten basiert, verändert ein Ändern der Anzahl der Videorahmen pro GOP-Einheit das Intervall der Strom-Verwaltungspakete. Dieses Intervall wird ausgedrückt in Einheiten der Darstellungszeit auf der Digital-Video-Disk innerhalb eines Bereiches von 0,4 s bis 1,0 s, bezogen auf die GOP-Einheit. Wenn die Darstellungszeit mehrerer fortlaufender GOP-Einheiten geringer als 1 s ist, werden die Verwaltungs-Datenpakete für die Videodaten der mehreren GOP-Einheiten zu einem einzelnen Strom verschachtelt.
  • Diese Verwaltungs-Datenpakete werden in dem Digital-Video-Disk-System als Navigationspakete NV bezeichnet. Die Daten von einem Navigationspaket NV zu dem Paket, das dem nächsten Navigationspaket NV unmittelbar vorausgeht, bilden eine Video-Objekteinheit VOBU. Allgemein wird eine fortlaufende Wiedergabeeinheit, die als eine Szene bestimmt werden kann, als Videoobjekt VOB bezeichnet und jedes Videoobjekt VOB enthält mehrere Video-Objekteinheiten VOBU. Datensätze mehrerer Videoobjekte VOB bilden einen VOB-Satz (VOBS). Es ist anzumerken, daß diese Dateneinheiten zuerst bei der Digital-Video-Disk verwendet wurden.
  • Wenn mehrere dieser Datenströme verschachtelt sind, müssen die die Beziehung zwischen den verschachtelten Paketen bestimmenden Navigationspakete NV ebenfalls in einer definierten Einheit verschachtelt werden, die als Paketnummerneinheit bekannt ist. Jede Bildergruppe GOP ist normalerweise eine Einheit mit etwa 0,5 s Videodaten, welche äquivalent zu der für 12-15 Rahmen erforderlichen Darstellungszeit sind, und ein Navigationspaket NV ist allgemein mit der Anzahl von für diese Darstellungszeit erforderlichen Datenpaketen verschachtelt.
  • Die in den den Systemstrom bildenden, verschachtelten Video-, Audio- und Sub- Bild-Datenpaketen enthaltene Strom-Verwaltungsinformation wird unten anhand von Fig. 19 beschrieben. Wie in Fig. 19 gezeigt, sind die in dem Systemstrom enthaltenen Daten in einem entsprechend dem MPEG2-Standard gepackten oder paketierten Format aufgezeichnet. Der Paketaufbau ist im wesentlichen der gleiche für Video-, Audio- und Sub-Bild-Daten. Ein Paket in dem Digital-Video-Disk-System weist eine Kapazität von 2048 Byte auf, wie oben beschrieben, und enthält einen Paket-Header PKH und ein Paket PES; jedes Paket PES enthält einen Paket-Header PTH und einen Datenblock.
  • Der Paket-Header PKH zeichnet den Zeitpunkt auf, zu welchem das Paket von dem Strompuffer 2400 zu dem Systemdekodierer 2500 zu senden ist (siehe Fig. 26), d. h., die Systemtaktreferenz SCR, welche die Referenzzeit für eine synchronisierte audiovisuelle Datenwiedergabe definiert. Der MPEG-Standard nimmt an, daß die Systemtaktreferenz SCR der Referenztakt für den gesamten Dekodiererbetrieb ist. Mit solchen Disk-Medien wie der Digital-Video-Disk kann jedoch eine für einzelne Disk-Wiedergabegeräte spezifische Zeitverwaltung verwendet werden und ein Referenztakt für das Dekodierersystem wird daher separat vorgesehen.
  • Der Paket-Header PTH enthält vergleichbar eine Darstellungs-Zeitmarke PTS und eine Dekodierungs-Zeitmarke DTS, die beide in dem Paket vor der Zugriffseinheit (der Dekodierungseinheit) plaziert sind. Die Darstellungs-Zeitmarke PTS definiert den Zeitpunkt, zu welchem die in dem Paket enthaltenen Videodaten oder Audiodaten nach der Dekodierung als Wiedergabe-Ausgangssignal ausgegeben werden sollen, und die Dekodierungs-Zeitmarke DTS bestimmt den Zeitpunkt, zu welchem der Videostrom dekodiert werden soll. Es ist anzumerken, daß die Darstellungs- Zeitmarke PTS den Anzeige-Anfangszeitpunkt der Zugriffseinheit wirksam bestimmt und die Dekodierungs-Zeitmarke DTS den Dekodierungs-Anfangszeitpunkt der Zugriffseinheit wirksam bestimmt. Wenn PTS und DTS der gleiche Zeitpunkt sind, wird auf DTS verzichtet.
  • Der Paket-Header PTH enthält ebenfalls ein als die Strom-ID bezeichnendes 8-Bit- Feld, welches den Paket-Typ angibt, d. h., ob das Paket ein Videopaket mit einem Video-Datenstrom, ein privates Paket oder ein MPEG-Audio-Paket ist.
  • Private Pakete in dem MPEG2-Standard sind Datenpakete, deren Inhalt frei bestimmbar ist. In dieser Ausführungsform der Erfindung wird das Privatpaket 1 verwendet, um Audiodaten oder andere als die MPEG-Audiodaten und Sub-Bild- Daten zu transportieren; das Privatpaket 2 transportiert das PCI-Paket und das DSI-Paket.
  • Die Privatpakete 1 und 2 umfassen jedes einen Paket-Header, einen Privatdatenbereich und einen Datenbereich. Der Privatdatenbereich enthält eine 8-Bit-Sub- Strom-ID, die angibt, ob die aufgezeichneten Daten Audiodaten oder Sub-Bild- Daten sind. Die durch das Privatpaket 2 definierten Audiodaten können als jeder von acht Typen #0 - #7 linear-PCM- oder AC-3 kodierter Daten definiert sein. Sub- Bild-Daten können als eine von bis zu 32 Typen #0 - #31 definiert sein.
  • Der Datenbereich ist das Feld, in welchem entsprechend der MPEG2-Spezifikation komprimierte Daten geschrieben werden, wenn die gespeicherten Daten Videodaten sind, linear-PCM-, AC-3- oder MPEG-kodierte Daten werden geschrieben, wenn Audiodaten gespeichert werden, oder durch Lauflängenkodierung komprimierte Grafikdaten werden geschrieben, wenn Sub-Bild-Daten gespeichert werden.
  • MPEG2-komprimierte Videodaten können mit einer Kodierung mit konstanter Bitgeschwindigkeit (CBR) oder mit variabler Bitgeschwindigkeit-(VBR) komprimiert werden. Bei Kodierung mit konstanter Bitgeschwindigkeit wird der Videostrom kontinuierlich mit einer konstanten Geschwindigkeit in den Videopuffer eingegeben. Dies steht im Gegensatz zu einer Kodierung mit variabler Bitgeschwindigkeit, bei welcher der Videostrom intermittierend in den Videopuffer eingegeben wird und es dadurch ermöglicht, die Erzeugung nicht notwendigen Codes zu unterdrücken. Die Kodierung mit konstanter Bitgeschwindigkeit und variabler Bitgeschwindigkeit kann in dem Digital-Video-Disk-System verwendet werden.
  • Da MPEG-Videodaten mit längenveränderlicher Kodierung komprimiert sind, ist die Datenmenge in jeder Bildergruppe GOP nicht konstant. Die Video- und Audio- Dekodierungszeiten unterscheiden sich ebenfalls und die zeitliche Beziehung zwischen den von der optischen Disk gelesenen Video- und Audiodaten und die zeitliche Beziehung zwischen den von dem Dekodierer ausgegebenen Video- und Audiodaten stimmen nicht überein. Das Verfahren der Zeitbasis-Synchronisierung der Video- und Audiodaten wird daher unten anhand von Fig. 26 detailliert beschrieben, wird aber unten basierend auf einer konstanten Bitgeschwindigkeits- Kodierung kurz beschrieben.
  • Der Navigationspaket-NV-Aufbau ist in Fig. 20 gezeigt. Jedes Navigationspaket NV beginnt mit einem Paket-Header PKH und enthält ein PCI-Paket und ein DSI-Paket.
  • Wie oben beschrieben, zeichnet der Paket-Header PKH den Zeitpunkt auf, zu welchem das Paket von dem Strompuffer 2400 zu dem Systemdekodierer 2500 (siehe Fig. 26) zu senden ist, d. h., die Systemtaktreferenz SCR, welche die Referenzzeit für die synchronisierte, audiovisuelle Datenwiedergabe definiert.
  • Jedes PCI-Paket enthält PCI-Grundinformationen (PCI_GI) und Winkelinformationen zur nicht unterbrechungsfreien Wiedergabe (NMSL_AGLI).
  • Die PCI-Grundinformation (PCI_GI) gibt die Anzeigezeit des ersten Videorahmens (den Start PTM der VOBU (VOBU_S_PTM)) und die Anzeigezeit des letzten Videorahmens (End PTM der VOBU (VOBU_E_PTM)) in der entsprechenden Video- Objekteinheit VOBU mit Systemtaktgenauigkeit (90 kHz) an.
  • Die Winkelinformation zur nicht unterbrechungsfreien Wiedergabe (NMSL_AGLI) gibt die Lese-Anfangsadresse der entsprechenden Video-Objekteinheit VOBU, wenn der Winkel geändert wird, ausgedrückt als die Anzahl von Sektoren vom Beginn des Videoobjektes VOB an. Da in diesem Beispiel neun oder weniger Winkel vorhanden sind, gibt es neun Winkeladress-Deklarationszellen: Zieladresse der Winkelzelle #1 zur nicht unterbrechungsfreien Wiedergabe (NMSL_AGL_C1_DSTA) bis Zieladresse der Winkelzelle #9 zur nicht unterbrechungsfreien Wiedergabe (NMSL_AGL_C9_DSTA).
  • Jedes DSI-Paket enthält DSI-Grundinformationen (DSI_GI), Unterbrechungsfrei- Wiedergabe-Informationen (SML_PBI) und Winkelinformationen zur unterbrechungsfreien Wiedergabe (SML_AGLI).
  • Die DSI-Grundinformation (DSI_GI) gibt die Adresse des letzten Paketes in der Video-Objekteinheit VOBU an, d. h., die Endadresse für das VOB (VOBO_EA), ausgedrückt als die Anzahl von Sektoren vom Beginn der Video-Objekteinheit VOBU an.
  • Während eine unterbrechungsfreie Wiedergabe später beschrieben wird, ist anzumerken, daß die fortlaufend gelesenen Dateneinheiten auf der Systemstrom-Ebene als eine verschachtelte Einheit ILVU verschachtelt (gemultiplext) sein müssen, um geteilte oder kombinierte Titel unterbrechungsfrei wiederzugeben. Mehrere mit der Verschachtelungseinheit ILVU als der kleinsten Einheit verschachtelte Systemströme werden als ein verschachtelter Block bezeichnet.
  • Die Unterbrechungsfrei-Wiedergabe-Information (SML_PBI) wird angegeben, um den mit der verschachtelten Einheit ILVU als der kleinsten Dateneinheit verschachtelten Systemstrom wiederzugeben und enthält ein Verschachtelungseinheiten-Flag (ILVU-Flag), welches angibt, ob die entsprechende Video-Objekteinheit VOBU ein verschachtelter Block ist. Das ILVU-Flag gibt an, ob die Video-Objekteinheit VOBU ein verschachtelter Block ist, und ist auf 1 gesetzt, wenn dies der Fall ist. Anderenfalls ist das ILVU-Flag auf 0 gesetzt.
  • Wenn eine Video-Objekteinheit VOBU ein verschachtelter Block ist, wird ein Einheiten-ENDE-Flag angegeben, um anzuzeigen, ob die Video-Objekteinheit VOBU die letzte VOBU in der verschachtelten Einheit ILVU ist. Da die verschachtelte Einheit ILVU die Dateneinheit zum fortlaufenden Lesen ist, wird das Einheiten- ENDE-Flag auf 1 gesetzt, wenn die gegenwärtig gelesene VOBU die letzte VOBU in der verschachtelten Einheit ILVU ist. Anderenfalls wird das Einheiten-ENDE-Flag auf 0 gesetzt.
  • Eine Verschachtelungseinheiten-End-Adresse (ILVU_EA), welche die Adresse des letzten Paketes in der ILVU angibt, zu welcher die VOBU gehört, und die Anfangsadresse der nächsten verschachtelten Einheit ILVU, die Anfangsadresse der nächsten verschachtelten Einheit (NT_ILVU_SA) werden ebenfalls angegeben, wenn sich eine Video-Objekteinheit VOBU in einem verschachtelten Block befindet. Die Verschachtelungseinheiten-Endadresse (ILVU_EA) und die Anfangsadresse der nächsten verschachtelten Einheit (NT_ILVU_SA) werden ausgedrückt als die Anzahl von Sektoren vom Navigationspaket NV der VOBU an.
  • Wenn zwei Systemströme unterbrechungsfrei verbunden sind, die Audio-Komponenten der zwei Systemströme aber nicht fortlaufend sind, ist es insbesondere unmittelbar vor und nach dem Übergang erforderlich, die Audioausgabe anzuhalten, um die Audio- und Video-Komponenten des dem Übergang folgenden Systemstromes zu synchronisieren. Es ist anzumerken, daß der nicht fortlautende Ton aus unterschiedlichen Audiosignalen resultieren kann, welche mit den entsprechenden Videoblöcken aufgezeichnet sind. Bei einem NTSC-Signal ist der Videorahmen- Zyklus zum Beispiel etwa 33,33 ms, während der AC-3-Audiorahmen-Zyklus 32 ms beträgt.
  • Um diese Resynchronisierung zu ermöglichen, sind Audiowiedergabe-Anhaltezeiten 1 und 2, d. h. Audio-Stop PTM 1 im VOB (VOB_A_STP_PTM1) und Audio-Stop- PTM 2 im VOB (VOB_A_STP-PTM2), welche den Zeitpunkt angeben, zu welchem der Ton anzuhalten ist, und Audiowiedergabe-Anhalteperioden 1 und 2, d. h., die Audiolücken-Länge 1 im VOB (VOB_AA_GAP_LEN1) und Audiolücken-Länge 2 im VOB (VOB_A_GAP_LEN2), welche anzeigen, für wie lange der Ton anzuhalten ist, ebenfalls in dem DSI-Paket angegeben. Es ist anzumerken, daß diese Zeiten mit der Systemtaktgenauigkeit (90 kHz) angegeben sind.
  • Die Winkelinformation zur unterbrechungsfreien Wiedergabe (SML_AGLI) gibt die Lese-Anfangsadresse an, wenn der Winkel geändert wird. Es ist anzumerken, daß dieses Feld gültig ist, wenn eine unterbrechungsfreie Mehrfachwinkel-Steuerung ermöglicht ist. Diese Adresse wird ebenfalls als die Anzahl von Sektoren von dem Navigationspaket NV der VOBU ausgedrückt. Da neun oder weniger Winkel vorhanden sind, gibt es neun Winkeladress-Deklarationszellen: Zieladresse der Winkelzelle #1 für unterbrechungsfreie Wiedergabe (SML_AGL_C1_DSTA) bis Zieladresse der Winkelzelle #9 für unterbrechungsfreie Wiedergabe (SML_AGL_C9_DSTA).
  • Es ist ebenfalls anzumerken, daß jeder Titel in Videoobjekt-(VOB)-Einheiten bearbeitet wird. Verschachtelte Videoobjekte (verschachtelte Titelbearbeitungseinheiten) werden als "VOBS" bezeichnet und der Kodierungsbereich der Quellendaten ist die Kodierungseinheit.
  • DVD-Kodierer
  • Eine bevorzugte Ausführungsform eines Digital-Video-Disk-System-Autoren-Kodierers ECD, bei welchem das erfindungsgemäße Multimedia-Bitstrom-Autorensystem in einem Digital-Video-Disk-System angewendet wird, ist unten beschrieben und in Fig. 25 gezeigt. Es ist offensichtlich, daß der in dem Digital-Video-Disk-System angewendete Autorenkodierer ECD, der unten als DVD-Kodierer bezeichnet wird, im wesentlichen mit dem in Fig. 2 gezeigten Autoren-Kodierer EC identisch ist. Der Grundunterschied zwischen diesen Kodierern ist der Austausch des Videozonen- Formatierers 1300 des obigen Autoren-Kodierers EC durch einen VOB-Puffer 1000 und einen Formatierer 1100 in dem DVD-Kodierer ECD. Es ist ebenfalls offensicht lich, daß der durch diesen DVD-Kodierer ECD kodierte Bitstrom auf einem Digital- Video-Disk-Medium M aufgezeichnet ist. Die Wirkungsweise dieses DVD-Kodierers ECD wird daher unten im Vergleich mit dem oben beschriebenen Autoren-Kodierer EC beschrieben.
  • Wie bei dem obigen Autoren-Kodierer EC erzeugt die Kodierungs-Systemsteuerung 200 Steuerungssignale St9, St11, St13, St21, St23, St25, St33 und St39 basierend auf den Szenariodaten St7, welche die von dem Szenario-Editor 100 eingegebenen, benutzerdefinierten Bearbeitungsanweisungen beschreiben, und steuern den Video-Kodierer 300, den Sub-Bild-Kodierer 500 und den Audio-Kodierer 700 in dem DVD-Kodierer ECD. Es ist anzumerken, daß die benutzerdefinierten Bearbeitungsanweisungen in dem DVD-Kodierer ECD ein übergeordneter Satz der Bearbeitungsanweisungen des oben beschriebenen Autoren-Kodierers EC sind.
  • Insbesondere die benutzer-definierten Bearbeitungsanweisungen (Szenariodaten St7) in dem DVD-Kodierer ECD beschreiben vergleichbar, welche Quellendaten aus sämtlichen oder einer Teilmenge der Quellendaten mit mehreren Titeln innerhalb eines bestimmten Zeitabschnittes ausgewählt werden, und wie die ausgewählten Quellendaten neu angeordnet werden, um das von dem Benutzer vorgesehene Szenario (die Sequenz) wiederzugeben. Die Szenariodaten St7 des DVD-Kodierers ECD enthalten jedoch weiterhin solche Informationen wie: die Anzahl der in den Bearbeitungseinheiten enthaltenen Ströme, welche durch Aufteilen eines Mehrfachtitel-Quellenstromes in Blöcke mit einem konstanten Zeitintervall erhalten werden; die Anzahl der in jedem Strom enthaltenen Audio- und Sub-Bild-Datenzellen und die Sub-Bild-Anzeigezeit und Periode; ob der Titel ein mehrfach-bewerteter Titel ist, welcher eine Eltern-Sperr-Steuerung ermöglicht; ob der Benutzerinhalt aus mehreren Strömen selektiert ist, einschließlich z. B. mehrerer Betrachtungswinkel; und das Verfahren der Verbindung von Szenen, wenn der Winkel zwischen den mehreren Betrachtungswinkeln umgeschaltet wird.
  • Die Szenariodaten St7 des DVD-Kodierers ECD enthalten ebenfalls Steuerungsinformationen auf einer Videoobjekt-VOB-Einheiten-Basis. Diese Information wird benötigt, um den Medien-Quellenstrom zu kodieren und beinhaltet insbesondere solche Informationen wie, ob mehrere Winkel oder Eltern-Steuerungsmerkmale vorhanden sind. Wenn eine Mehrfachwinkel-Betrachtung ermöglicht ist, enthalten die Szenariodaten St7 ebenfalls die Kodierungs-Bitgeschwindigkeit jedes Stromes unter Berücksichtigung der Datenverschachtelung und der Disk-Kapazität, der Anfangs- und End-Zeitpunkte für jede Steuerung, und, ob eine unterbrechungsfreie Verbindung zwischen den vorausgehenden und den folgenden Strömen hergestellt werden soll.
  • Die Kodierungs-Systemsteuerung 200 extrahiert diese Information aus den Szenariodaten St7 und erzeugt die Kodierungs-Informationstabelle und die Kodierungs- Parameter, die zur Kodierungs-Steuerung erforderlich sind. Die Kodierungs-Informationstabelle und die Kodierungs-Parameter sind unten anhand der Fig. 27, 28 und 29 beschrieben.
  • Die Stromkodierungsdaten St33 enthalten die Systemstrom-Kodierungs-Parameter und die Systemkodierungs-Anfangs- und End-Zeitpunktwerte, welche von dem DVD-System zum Erzeugen der VOBs benötigt werden. Diese Systemstrom-Kodierungs-Parameter beinhalten die Bedingungen zum Verbinden eines Videoobjektes VOB mit demjenigen davor und danach, die Anzahl von Audioströmen, die Audio- Kodierungsinformation und die Audio-Ids, die Anzahl von Sub-Bildern und die Sub- Bild-Ids, die Videowiedergabe-Anfangszeit-Information VPTS und die Audiowiedergabe-Anfangszeit-Information APTS.
  • Das Titelsequenz-Steuerungssignal St39 liefert die Multimedia-Bitstrom-MBS- Formatierungs-Anfangs- und End-Zeitpunkt-Information und Formatierungsparameter, welche die Wiedergabe-Steuerungsinformation und die Verschachtelungsinformation angeben.
  • Basierend auf dem Video-Kodierungs-Parameter- und Kodierungs-Anfangs/End- Zeitsteuerungssignal St9 kodiert der Videokodierer 300 einen bestimmten Teil des Videostromes St1 zum Erzeugen eines mit dem in der ISO-13818 definierten MPEG2-Videostandard konformen Elementarstrom. Dieser Elementarstrom wird zu dem Videostrompuffer 400 als kodierter Videostrom St15 ausgegeben.
  • Es ist anzumerken, daß, während der Videokodierer 300 einen Elementarstrom entsprechend dem in der ISO-13818 definierten MPEG2-Videostandard entsprechenden Elementarstrom erzeugt, bestimmte Kodierungs-Parameter über das Videokodierungs-Parameter-Signal St9 eingegeben werden, einschließlich des Kodierungs-Anfangs- und End-Zeitpunktes, der Bitgeschwindigkeit und der Kodierungsbedingungen für den Kodierungs-Anfang und das Ende, den Materialtyp, einschließlich dessen, ob das Material ein NTSC oder PAL-Videosignal oder telecine-konvertiertes Material ist, und ob der Kodierungsmodus entweder für eine offene GOP- oder geschlossene GOP-Kodierung eingestellt ist.
  • Das MPEG2-Kodierungsverfahren ist grundlegend ein Inter-Rahmen-Kodierungsverfahren unter Verwendung der Korrelation zwischen Rahmen für eine maximale Signalkompression, d. h., der kodierte Rahmen (der Zielrahmen) wird durch Bezugnahme auf Rahmen vor und/oder hinter dem Zielrahmen kodiert. Es werden jedoch ebenfalls intrakodierte Rahmen, d. h., Rahmen, die nur auf dem Inhalt des Zielrahmens basierend kodiert werden, eingefügt, um eine Fehlerausbreitung zu vermeiden und einen Zugriff aus dem Mittelstrom (wahlfreier Zugriff) zu ermöglichen. Die wenigstens einen intrakodierten Rahmen ("Intra-Rahmen") enthaltende Kodierungseinheit wird als Bildergruppe GOP bezeichnet.
  • Eine Bildergruppe GOP, in welcher eine Kodierung geschlossen vollständig innerhalb der GOP vorgenommen wird, ist als "geschlossene GOP" bekannt. Eine Bildergruppe GOP mit einem unter Bezug auf einen Rahmen in einem vorausgehenden oder folgenden (ISO-13818 BESCHRÄNKT NICHT P- und B-Bild-KODIERUNG zur Bezugnahme auf VERGANGENE Rahmen) Bildergruppe GOP ist eine "offene GOP". Daher ist es möglich, eine geschlossene GOP unter Verwendung nur dieser GOP wiederzugeben. Wiedergeben einer offenen GOP erfordert jedoch ebenfalls das Vorhandensein der einbezogenen GOP, allgemein der der offenen GOP vorausgehenden GOP.
  • Die GOP wird häufig als die Zugriffseinheit verwendet. Die GOP kann zum Beispiel als der Wiedergabe-Anfangspunkt zum Wiedergeben eines Titels aus der Mitte verwendet werden, als ein Übergangspunkt in einem Film oder zur schnellen Vorwärtswiedergabe oder für andere besondere Wiedergabemodi. Hochgeschwindigkeitswiedergabe kann in solchen Fällen verwirklicht werden durch Wiedergeben nur der Intra-Rahmen-kodierten Rahmen in einer GOP oder durch Wiedergeben von Rahmen nur in GOP-Einheiten.
  • Basierend auf dem Sub-Bild-Strom-Kodierungsparameter-Signal St11 kodiert der Sub-Bild-Kodierer 500 einen bestimmten Teil des Sub-Bild-Stromes St3 zum Erzeugen eines längenveränderlich kodierten Bitstromes von Bitmap-Daten. Diese längenveränderlich kodierten Bitstromdaten werden als der kodierte Sub-Bild-Strom St17 zu dem Sub-Bild-Strompuffer 600 ausgegeben.
  • Basierend auf dem Audio-Kodierungsparameter-Signal St 13 kodiert der Audiokodierer 700 einen bestimmten Teil des Audiostromes St5 zum Erzeugen der kodierten Audiodaten. Diese kodierten Audiodaten können auf dem in der ISO-11172 definierten MPEG 1-Audio-Standard und dem in der ISO-13818 definierten MPEG2- Audio-Standard basieren, AC-3-Audiodaten oder PCM-(LPCM)-Daten sein. Es ist anzumerken, daß die Verfahren und Einrichtungen zum Kodieren von Audiodaten entsprechend diesen Standards bekannt und allgemein verfügbar sind.
  • Der Videostrompuffer 400 ist an den Videokodierer 300 und an die Kodierungs- Systemsteuerung 200 angeschlossen. Der Videostrompuffer 400 speichert den von dem Videokodierer 300 eingegebenen, kodierten Videostrom St15 und gibt den gespeicherten, kodierten Videostrom St15 als den zeitverzögerten, kodierten Videostrom St27 basierend auf dem von der Kodierungs-Systemsteuerung 200 gelieferten Zeitsteuerungssignal St21 aus.
  • Der Sub-Bild-Strompuffer 600 ist vergleichbar mit dem Sub-Bild-Kodierer 500 und der Kodierungs-Systemsteuerung 200 verbunden. Der Sub-Bild-Strompuffer 600 speichert den von dem Sub-Bild-Kodierer 500 eingegebenen Sub-Bild-Strom St17 und gibt den gespeicherten, kodierten Sub-Bild-Strom St17 als zeitverzögerten, kodierten Sub-Bild-Strom St29 basierend auf dem von der Kodierungs-Systemsteuerung 200 gelieferten Zeitsteuerungssignal St23 aus.
  • Der Audiostrompuffer 800 ist ebenso an den Audiokodierer 700 und die Kodierungs-Systemsteuerung 200 angeschlossen. Der Audiostrompuffer 800 speichert den von dem Audiokodierer 700 eingegebenen, kodierten Audiostrom St19 und gibt dann den kodierten Audiostrom St19 als den zeitverzögerten, kodierten Audiostrom St31 basierend auf dem von der Kodierungs-Systemsteuerung 200 gelieferten Zeitsteuerungssignal St25 aus.
  • Der Systemkodierer 900 ist an den Videostrompuffer 400, den Sub-Bild-Strompuffer 600 und die Kodierungs-Systemsteuerung 200 angeschlossen und wird dadurch entsprechend mit dem zeitverzögerten, kodierten Videostrom St27, dem zeitverzögerten, kodierten Sub-Bild-Strom St29, dem zeitverzögerten, kodierten Audiostrom St31 und den Systemstrom-Kodierungsparameterdaten St33 versorgt. Es ist anzumerken, daß der Systemkodierer 900 ein Multiplexer ist, der die zeitverzögerten Ströme St27, St29 und St31 basierend auf den Strom-Kodierungsdaten St33 (Zeitsteuerungssignal) zum Erzeugen von Titelbearbeitungseinheiten (VOBs) St35 multiplext.
  • Der VOB-Puffer 1000 speichert vorübergehend die durch den Systemkodierer 900 erzeugten Videoobjekte VOBs. Der Formatierer 1100 liest die verzögerten Videoobjekte VOB aus dem VOB-Puffer 1000 basierend auf dem Titelsequenz- Steuerungssignal St39 zum Erzeugen einer Videozone VZ und addiert den Volumen-Dateiaufbau VFS zum Erzeugen der bearbeiteten Multimedia-Stromdaten St43.
  • Der entsprechend dem benutzerdefinierten Szenario bearbeitete Multimedia-Bitstrom MBS St43 wird dann zu der Aufzeichnungsvorrichtung 1200 gesendet. Die Aufzeichnungsvorrichtung 1200 verarbeitet die bearbeiteten Multimedia-Stromdaten St43 zu dem Datenstrom St45-Format des Aufzeichnungsmediums M und zeichnet somit den formatierten Datenstrom St45 auf dem Aufzeichnungsmedium M auf.
  • DVD-Dekodierer
  • Eine bevorzugte Ausführungsform eines Digital-Video-Disk-System-Autorendekodierers DCD, bei welcher das Multimedia-Bitstrom-Autorensystem der vorliegenden Erfindung in einem Digital-Video-Disk-System angewendet wird, ist unten beschrieben und in Fig. 26 gezeigt. Der in dem Digital-Video-Disk-System angewendete Autorendekodierer DCD, unten als ein DVD-Dekodierer DCD bezeichnet, dekodiert den unter Verwendung des DVD-Kodierers ECD der vorliegenden Erfindung bearbeiteten Multimedia-Bitstrom MBS und stellt den Inhalt jedes Titels entsprechend dem benutzer-definierten Szenario wieder her. Es ist ebenfalls offensichtlich, daß der durch diesen DVD-Kodierer ECD kodierte Multimedia-Bitstrom St45 auf einem Digital-Video-Disk-Medium M aufgezeichnet wird.
  • Der Grundaufbau des DVD-Dekodierers DCD gemäß dieser Ausführungsform ist der gleiche wie derjenige des in Fig. 3 gezeigten Autorendekodierers DC. Die Unterschiede sind, daß ein abweichender Videodekodierer 3801 (als 3800 in Fig. 26 gezeigt) anstelle des Videodekodierers 3800 verwendet wird und ein Neuordnungspuffer 3300 und eine Auswählvorrichtung 3400 zwischen dem Videodekodierer 3801 und dem Synthetisierer 3500 angeordnet sind.
  • Es ist anzumerken, daß die Auswählvorrichtung 3400 an den Synchronisierer 2900 angeschlossen ist und durch ein Umschaltsignal St103 gesteuert wird.
  • Die Wirkungsweise dieses DVD-Dekodierers DCD wird daher unten im Vergleich mit dem oben beschriebenen Autorendekodierer DC beschrieben.
  • Wie in Fig. 26 gezeigt, umfaßt der DVD-Dekodierer DCD eine Multimedia-Bitstrom- Erzeugungsvorrichtung 2000, eine Szenario-Auswählvorrichtung 2100, eine Dekodierungs-Systemsteuerung 2300, einen Strompuffer 2400, einen Systemdekodierer 2500, einen Videopuffer 2600, einen Sub-Bild-Puffer 2700, einen Audiopuffer 2800, einen Synchronisierer 2900, einen Videodekodierer 3801, einen Neuordnungspuffer 3300, einen Sub-Bild-Dekodierer 3100, einen Audiodekodierer 3200, eine Auswählvorrichtung 3400, einen Synthetisierer 3500, einen Videodaten-Ausgabeanschluß 3600 und einen Audiodaten-Ausgabeanschluß 3700.
  • Die Bitstrom-Erzeugungsvorrichtung 2000 umfaßt eine Aufzeichnungsmedium- Antriebseinheit 2004 zum Antreiben des Aufzeichnungsmediums M; einen Lesekopf 2006 zum Lesen der auf dem Aufzeichnungsmedium M aufgezeichneten Informationen und Erzeugen des binären Lesesignals St57; einen Signalprozessor 2008 zur variablen Verarbeitung des Lesesignals St57, um den wiedergegebenen Bitstrom St61 zu erzeugen; und eine Wiedergabe-Steuerung 2002.
  • Die Wiedergabe-Steuerung 2002 ist an die Dekodierungs-Systemsteuerung 2300 angeschlossen, von welcher das Multimedia-Bitstrom-Wiedergabe-Steuerungssignal St53 geliefert wird, und erzeugt wiederum die Wiedergabe-Steuerungssignale St55 und St59, welche die Aufzeichnungsmedium-Antriebseinheit (Motor) 2004 und den Signalprozessor 2008 steuern.
  • Damit die benutzer-definierten Video-, Sub-Bild- und Audio-Teile des durch den Autorenkodierer EC bearbeiteten Multimediatitels wiedergegeben werden, umfaßt der Autorendekodierer DC eine Szenario-Auswählvorrichtung 2100 zum Auswählen und Wiedergeben der entsprechenden Szenen (Titel). Die Szenario-Auswählvorrichtung 2100 gibt dann die ausgewählten Titel als Szenariodaten zu dem DVD- Dekodierer DCD aus.
  • Die Szenario-Auswählvorrichtung 2100 umfaßt bevorzugt eine Tastatur, eine CPU und einen Monitor. Unter Verwendung der Tastatur gibt der Benutzer dann das gewünschte Szenario basierend auf dem Inhalt des durch den DVD-Kodierer ECD eingegebenen Szenarios ein. Basierend auf der Tastatureingabe erzeugt die CPU die Szenario-Auswahldaten St51, welche das ausgewählte Szenario angeben. Die Szenario-Auswählvorrichtung 2100 ist zum Beispiel durch eine Infrarot-Kommunikationsvorrichtung an die Dekodierungs-Systemsteuerung 2300 angeschlossen und gibt die erzeugten Szenario-Auswahldaten St51 in die Dekodierungs-Systemsteuerung 2300 ein.
  • Der Strompuffer 2400 weist eine bestimmte Pufferkapazität auf, die zum vorübergehenden Speichern des von der Bitstrom-Erzeugungsvorrichtung 2000 wie dergegebenen Bitstromes St61, Extrahieren des Volumen-Dateiaufbaus VFS, der Anfangs-Synchronisierungsdaten SCR (Systemtaktreferenz) in jedem Paket und der VOBU-Steuerungsinformation (DSI) in dem Navigationspaket NV verwendet wird, um die Bitstrom-Steuerungsdaten St63 zu erzeugen. Der Strompuffer 2400 ist ebenfalls an die Dekodierungs-Systemsteuerung 2300 angeschlossen, zu welcher er die erzeugten Bitstrom-Steuerungsdaten St63 liefert.
  • Basierend auf den von der Szenario-Auswählvorrichtung 2100 gelieferten Szenario- Auswahldaten St51 erzeugt die Dekodierungs-Systemsteuerung 2300 dann das Bitstrom-Wiedergabe-Steuerungssignal St53, welches den Betrieb der Bitstrom- Erzeugungsvorrichtung 2000 steuert. Die Dekodierungs-Systemsteuerung 2300 extrahiert ebenfalls die benutzer-definierten Wiedergabe-Anweisungsdaten aus dem Bitstrom-Wiedergabe-Steuerungssignal St53 und erzeugt die zur Dekodierungssteuerung erforderliche Dekodierungs-Informationstabelle. Diese Dekodierungs- Informationstabelle ist weiter unten anhand der Fig. 58 und 59 beschrieben. Die Dekodierungs-Systemsteuerung 2300 extrahiert ebenfalls die auf der optischen Disk aufgezeichnete Titelinformation aus dem Datei-Datenaufbaubereich FDS der Bitstrom-Steuerungsdaten St63 zum Erzeugen des Titelinformationssignals St200. Es ist anzumerken, daß die extrahierte Titelinformation die Videoverwaltung VMG beinhaltet, die VTS-Information VTSI, die PGC-Informationseinträge C_PBI #j, und die Zellen-Darstellungszeit C_PBTM.
  • Es ist anzumerken, daß die Bitstrom-Steuerungsdaten St63 in Paketeinheiten erzeugt werden, wie in Fig. 19 gezeigt, und von dem Strompuffer 2400 zu der Dekodierungs-Systemsteuerung 2300 geliefert werden, an welche der Strompuffer 2400 angeschlossen ist.
  • Der Synchronisierer 2900 ist an die Dekodierungs-Systemsteuerung 2300 angeschlossen, von welcher er die in den Synchronisierungs-Steuerungsdaten St81 enthaltene Systemtaktreferenz SCR zum Setzen des internen Systemtaktes STC und Liefern des Rücksetz-Systemtaktes St79 zu der Dekodierungs-Systemsteuerung 2300 empfängt.
  • Basierend auf diesem Systemtakt St79 erzeugt die Dekodierungs-Systemsteuerung 2300 ebenfalls das Strom-Lesesignal St65 mit einem bestimmten Intervall und gibt das Lesesignal St65 zu dem Strompuffer 2400 aus. Es ist anzumerken, daß die Leseeinheit in diesem Fall das Paket ist.
  • Das Verfahren zum Erzeugen des Strom-Lesesignals St65 wird als nächstes beschrieben.
  • Die Dekodierungs-Systemsteuerung 2300 vergleicht die in den aus dem Strompuffer 2400 extrahierten Strom-Steuerungsdaten enthaltene Systemtaktreferenz SCR mit dem von dem Synchronisierer 2900 gelieferten Systemtakt St79 und erzeugt das Lese-Anforderungssignal St65, wenn der Systemtakt St79 größer als die Systemtaktreferenz SCR der Bitstrom-Steuerungsdaten St63 ist. Paketübertragungen werden durch Ausführen dieses Steuerungsvorgangs anhand einer Paket- Einheit gesteuert.
  • Basierend auf den Szenario-Auswahldaten St51 erzeugt die Dekodierungs-Systemsteuerung 2300 das die Strom-Ids für die Video-, Sub-Bild- und Audio-Bitströme definierende Dekodierungssignal St69 entsprechend dem ausgewählten Szenario und gibt es zu dem Systemdekodierer 2500 aus.
  • Wenn ein Titel mehrere Audiospuren enthält, z. B. Audiospuren in Japanisch, Englisch, Französisch und/oder anderen Sprachen, und mehrere Sub-Bild-Spuren für Untertitel in Japanisch, Englisch, Französisch und/oder anderen Sprachen wird jeder der Sprachspuren eine diskrete ID zugeordnet. Wie oben anhand von Fig. 19 beschrieben, ist eine Strom-ID den Videodaten und den MPEG-Audiodaten zugeordnet und eine Sub-Strom-ID ist den Sub-Bild-Daten, den AC-3-Audiodaten, Linear- PCM-Daten und der Navigationspaket-NV-Information zugeordnet. Während dem Benutzer diese ID-Zahlen niemals klar sein müssen, kann der Benutzer die Sprache des Tones und/oder der Untertitel unter Verwendung der Szenario-Auswählvorrichtung 2100 auswählen. Wenn zum Beispiel ein englisch-sprachiger Ton ausgewählt wird, wird die der englischen Tonspur entsprechende ID als Szenario- Auswahldaten St51 zu der Dekodierungs-Systemsteuerung 2300 gesendet. Die Dekodierungs-Systemsteuerung 2300 addiert dann diese ID zu dem zu dem Systemdekodierer 2500 ausgegebenen Dekodierungs-Signal St69.
  • Basierend auf den in dem Dekodierungs-Signal St69 enthaltenen Anweisungen gibt der Systemdekodierer 2500 jeweils die von dem Strompuffer 2400 eingegebenen Video-, Sub-Bild- und Audio-Bitströme zu dem Videopuffer 2600, dem Sub-Bild- Puffer 2700 und dem Audiopuffer 2800 als den kodierten Videostrom St71, den kodierten Sub-Bild-Strom St73 und den kodierten Audiostrom St75 aus. Wenn die von der Szenario-Auswählvorrichtung 2100 eingegebene Strom-ID und die von dem Strompuffer 2400 eingegebene Paket-ID übereinstimmen, gibt der Systemdekodierer 2500 die entsprechenden Pakete zu den entsprechenden Puffern aus (d. h., zu dem Videopuffer 2600, dem Sub-Bild-Puffer 2700 und dem Audiopuffer 2800).
  • Der Systemdekodierer 2500 erfaßt die Darstellungs-Zeitmarke PTS und die Dekodierungs-Zeitmarke DTS der kleinsten Steuerungseinheit in jedem Bitstrom St67 zum Erzeugen des Zeitinformationssignals St77. Dieses Zeitinformationssignal St77 wird zu dem Synchronisierer 2900 durch die Dekodierungs-Systemsteuerung 2300 als die Synchronisierungs-Steuerungsdaten St81 geliefert.
  • Basierend auf diesen Synchronisierungs-Steuerungsdaten St81 bestimmt der Synchronisierer 2900 den Dekodierungs-Anfangszeitpunkt, wobei jeder der Bitströme in der korrekten Reihenfolge nach der Dekodierung angeordnet wird und erzeugt dann und gibt das Videostrom-Dekodierungs-Anfangssignal St89 basierend auf dieser Dekodierungs-Zeitsteuerung in den Videodekodierer 3800 ein. Der Synchronisierer 2900 erzeugt und liefert ebenfalls das Sub-Bild-Dekodierungs- Anfangssignal St91 und das Audiostrom-Dekodierungs-Anfangssignal St93 zu dem Sub-Bild-Dekodierer 3100 bzw. dem Audiodekodierer 3200.
  • Der Videodekodierer 3801 erzeugt das Videoausgabe-Anforderungssignal St84 basierend auf dem Videostrom-Dekodierungs-Anfangssignal St89 und gibt es zu dem Videopuffer 2600 aus. Als Reaktion auf das Videoausgabe-Anforderungssignal. St84 gibt der Videopuffer 2600 den Videostrom St83 zu dem Videodekodierer 3801 aus. Der Videodekodierer 3801 erfaßt somit die in dem Videostrom St83 enthaltene Darstellungs-Zeitinformation und deaktiviert das Videoausgabe-Anforderungssignal St84, wenn die Länge des empfangenen Videostromes St83 äquivalent zu der bestimmten Darstellungszeit ist. Ein in der Länge mit der festgelegten Darstellungszeit gleicher Videostrom wird somit durch den Videodekodierer 3801 dekodiert, welcher das wiedergegebene Videosignal St95 zu dem Neuordnungspuffer 3300 und der Auswählvorrichtung 3400 ausgibt.
  • Da der kodierte Videostrom unter Verwendung der Inter-Rahmen-Korrelationen zwischen Bildern kodiert ist, stimmen die kodierte Reihenfolge und die Anzeige- Reihenfolge auf einer Rahmeneinheitenbasis nicht notwendigerweise überein. Das Bild kann daher nicht in der dekodierten Reihenfolge angezeigt werden. Die dekodierten Rahmen werden daher vorübergehend in dem Neuordnungspuffer 3300 gespeichert. Der Synchronisierer 2900 steuert daher das Umschaltsignal St103, so daß das von dem Videodekodierer 3800 ausgegebene, wiedergegebene Videosignal St95 und das Neuordnungspuffer-Ausgangssignal St97 geeignet selektiert und in der Anzeige-Reihenfolge zu dem Synthetisierer 3500 ausgegeben werden.
  • Der Sub-Bild-Dekodierer 3100 erzeugt ebenso das Sub-Bild-Ausgabe-Anforderungssignal St86 basierend auf dem Sub-Bild-Dekodierungs-Anfangssignal St91 und gibt es zu dem Sub-Bild-Puffer 2700 aus. Als Reaktion auf das Sub-Bild-Ausgabe- Anforderungssignal St86 gibt der Sub-Bild-Puffer 2700 den Sub-Bild-Strom St85 zu dem Sub-Bild-Dekodierer 3100 aus. Basierend auf der in dem Sub-Bild-Strom St85 enthaltenen Darstellungs-Zeitinformation dekodiert der Sub-Bild-Dekodierer 3100 eine Länge des Sub-Bild-Stromes St85 entsprechend der festgelegten Darstellungszeit zum Wiedergeben und Liefern des Sub-Bild-Signals St99 zu dem Synthetisierer 3500.
  • Der Synthetisierer 3500 überlagert das Auswählvorrichtungs-3400-Ausgangssignal mit dem Sub-Bild-Signal St99 zum Erzeugen und Ausgeben des Videosignals St105 zu dem Videodaten-Ausgabeanschluß 3600.
  • Der Audiodekodierer 3200 erzeugt und liefert das Audioausgabe-Anforderungssignal St88 basierend auf dem Audiostrom-Dekodierungs-Anfangssignal St93 zu dem Audiopuffer 2800. Der Audiopuffer 2800 gibt somit den Audiostrom St87 zu dem Audiodekodierer 3200 aus. Der Audiodekodierer 3200 dekodiert eine Länge des Audiostromes St87 entsprechend der bestimmten Darstellungszeit basierend auf der in dem Audiostrom St87 enthaltenen Darstellungs-Zeitinformation und gibt den dekodierten Audiostrom St101 zu dem Audiodaten-Ausgabeanschluß 3700 aus.
  • Somit ist es möglich, einen benutzerdefinierten Multimedia-Bitstrom MBS in Echtzeit entsprechend einem benutzerdefinierten Szenario wiederzugeben. Insbesondere jedesmal, wenn der Benutzer ein anderes Szenario selektiert, ist der DVD-Dekodierer DCD in der Lage, den von dem Benutzer gewünschten Titelinhalt in der gewünschten Reihenfolge durch Wiedergeben des Multimedia-Bitstromes MBS entsprechend dem ausgewählten Szenario wiederzugeben.
  • Es ist anzumerken, daß die Dekodierungs-Systemsteuerung 2300 das Titelinformationssignal St200 durch eine oben erwähnte Infrarot-Kommunikationsvorrichtung oder eine andere Einrichtung zu der Szenario-Auswählvorrichtung 2100 liefern kann. Eine von dem Benutzer gesteuerte, interaktive Szenario-Auswahl kann ebenfalls durch die Szenario-Auswählvorrichtung 2100 ermöglicht werden, welche die auf der optischen Disk M aufgezeichnete Titelinformation aus dem Datei-Datenaufbaubereich FDS der in dem Titelinformationssignal St200 enthaltenen Bitstrom- Steuerungsdaten St63 aufgezeichnete Titelinformation extrahiert und diese Titelinformation auf einer Anzeige zur Benutzerauswahl anzeigt.
  • Es ist weiterhin anzumerken, daß der Strompuffer 2400, der Videopuffer 2600, der Sub-Bild-Puffer 2700, der Audiopuffer 2800 und der Neuordnungspuffer 3300 oben und in den Figuren als getrennte Entitäten dargestellt sind, da sie funktional unterschiedlich sind. Es ist jedoch offensichtlich, daß ein einzelner Pufferspeicher gesteuert werden kann, um die gleiche, diskrete Funktionalität durch zeitgeteilt gesteuerte Verwendung eines Pufferspeichers mit einer mehrfach schnelleren Betriebsgeschwindigkeit als die Lese- und Schreibgeschwindigkeiten dieser separaten Puffer bereitzustellen.
  • Mehrfachszenen-Steuerung
  • Das Konzept der erfindungsgemäßen Mehrfachwinkel-Szenensteuerung wird unten anhand von Fig. 21 beschrieben. Wie oben beschrieben, werden Titel, die mit zahlreichen Variationen wiedergegeben werden können, aus Basis-Szenenperioden mit gemeinsamen Daten für jeden Titel und Mehrfachszenen-Perioden mit Gruppen unterschiedlicher Szenen entsprechend den verschiedenen Szenario-Anforderungen aufgebaut. In Fig. 21 sind die Szenen 1, 5 und 8 die gemeinsamen Szenen der Basis-Szenenperioden. Die Mehrfachwinkel-Szenen (Winkel 1, 2 und 3) zwischen den Szenen 1 und 5 und die Eltern-Sperr-Szenen (Szenen 6 und 7) zwischen den Szenen 5 und 8 sind die Mehrfachszenen-Perioden.
  • Aus unterschiedlichen Winkeln aufgenommene Szenen, d. h., Winkel 1, 2 und 3 in diesem Beispiel können während der Wiedergabe in der Mehrfachwinkel-Szenenperiode dynamisch ausgewählt und wiedergegeben werden. In der Eltern-Sperr- Szenenperiode kann jedoch nur eine der verfügbaren Szenen, Szenen 6 und 7, mit unterschiedlichem Inhalt, ausgewählt werden und muß statisch ausgewählt werden, bevor die Wiedergabe beginnt.
  • Welche dieser Szenen aus den Mehrfachszenen-Perioden auszuwählen und wiederzugeben ist, wird durch den die Szenario-Auswählvorrichtung 2100 bedienenden Benutzer festgelegt und dadurch ein Erzeugen der Szenario-Auswahldaten St51. In dem Szenario 1 in Fig. 21 kann der Benutzer frei jede der Mehrfachwinkel-Szenen auswählen, und Szene 6 wurde zur Ausgabe in der Eltern-Sperr-Szenenperiode vorab ausgewählt. Ebenso kann in dem Szenario 2 der Benutzer frei jede der Mehrfachwinkel-Szenen auswählen, und Szene 7 wurde zur Ausgabe in der Eltern-Sperr- Szenenperiode vorab ausgewählt.
  • Anhand der Fig. 30 und 31 werden die Inhalte der Programmketteninformation VTS_PGCI weiterhin beschrieben. In Fig. 30 ist der Fall, daß ein Szenario von dem Benutzer angefordert wird, bezogen auf einen VTSI-Datenaufbau, gezeigt. Das in Fig. 21 gezeigte Szenario 1 und Szenario 2 wird als Programmketteninformation VTS_PGC#1 und VTS_PGC#2 beschrieben. Die das Szenario 1 beschreibende VTS_PGC#1 besteht aus Zellenwiedergabe-Informationen C_PBI#1 entsprechend Szene 1, C_PBI#2, C_PBI#3 und C_PBI#4 innerhalb eines Mehrfachwinkel-Zellenblockes, C_PBI#5 entsprechend Szene 5, C_PBI#6 entsprechend Szene 6 und C_PBI#7 entsprechend Szene 8.
  • Die das Szenario 2 beschreibende VTS_PGC1#2 besteht aus der Zellenwiedergabe- Information C_PBI#1 entsprechend Szene 1, C_PBI#2, C_PBI#3 und C_PBI#4 innerhalb eines Mehrfachwinkel-Zellenblockes entsprechend einer Mehrfachwinkel- Szene, C_PBI#5 entsprechend Szene 5, C_PBI#6 entsprechend Szene 7 und C_PBI#7 entsprechend Szene 8. Entsprechend dem Digital-Video-System-Datenaufbau wird eine Szene, welche eine Steuerungseinheit eines Szenarios ist, als Zelle beschrieben, welche eine Einheit darunter ist, und somit kann ein von einem Benutzer gefordertes Szenario erhalten werden.
  • In Fig. 31 ist der in Fig. 21 gezeigte Fall, daß ein Szenario von dem Benutzer angefordert wird, bezogen auf einen VOB-Datenaufbau VTSTT_VOBS gezeigt. Wie insbesondere in Fig. 31 gezeigt, verwenden die zwei Szenarien 1 und 2 die gleichen VOB-Daten gemeinsam. Bezogen auf eine in jedem Szenario gemeinsam enthaltene Einzelszene sind VOB#1 entsprechend Szene 1, VOB#5 entsprechend Szene 5 und VOB#8 entsprechend Szene 8 in einem nicht verschachtelten Block, welcher der fortlaufende Block ist, angeordnet.
  • Bezogen auf die in den Szenarien 1 und 2 gemeinsam enthaltenen Mehrfachwinkeldaten werden Szenendaten eines Winkels durch ein einzelnes VOB aufgebaut. Insbesondere ist der Winkel 1 aufgebaut durch VOB#2 und Winkel 2 ist aufgebaut durch VOB#3, Winkel 3 ist aufgebaut durch VOB#4. Derart aufgebaute Mehrfachwinkeldaten sind zum Umschalten zwischen jedem Winkel und zur unterbrechungsfreien Wiedergabe der Daten jedes Winkels als der verschachtelte Block ausgebildet. Die in den Szenarien 1 und 2 speziellen Szenen 6 und 7 sind zur unterbrechungsfreien Wiedergabe zwischen den gemeinsamen Szenen davor und danach ebenso wie zur unterbrechungsfreien Wiedergabe zwischen jeder Szene als der verschachtelte Block ausgebildet.
  • Wie oben beschrieben, kann das in Fig. 21 gezeigte, von dem Benutzer angeforderte Szenario unter Verwendung der in Fig. 30 gezeigten Videotitel-Wiedergabesteuerungsinformation und dem in Fig. 31 gezeigten Titelwiedergabe-VOB-Datenaufbau verwirklicht werden.
  • Unterbrechungsfreie Wiedergabe
  • Die oben hinsichtlich des Digital-Video-Disk-System-Datenaufbaus kurz erwähnte Fähigkeit zur unterbrechungsfreien Wiedergabe wird unten beschrieben. Es ist anzumerken, daß die unterbrechungsfreie Wiedergabe die Wiedergabe von Multimediadaten einschließlich Video-, Audio- und Sub-Bild-Daten in einem Digital-Video- Disk-System ohne intermittierende Unterbrechungen in den Daten oder der Information zwischen Basis-Szenenperioden, zwischen Basis-Szenenperioden und Mehrfachszenen-Perioden und zwischen Mehrfachszenen-Perioden betrifft.
  • Zur intermittierenden Wiedergabe dieser Daten und des Titelinhalts beitragende Hardware-Faktoren beinhalten Dekodierer-Unterlauf, d. h., ein Ungleichgewicht zwischen der Quellendaten-Eingabegeschwindigkeit und der Dekodierungsgeschwindigkeit der eingegebenen Quellendaten.
  • Andere Faktoren betreffen die Eigenschaften der Wiedergabedaten. Wenn die Wiedergabedaten Daten sind, die für eine konstante Zeiteinheit fortlaufend wiedergegeben werden müssen, damit der Benutzer den Inhalt oder die Information versteht, z. B. Audiodaten, geht die Datenkontinuität verloren, wenn die erforderliche fortlaufende Darstellungszeit nicht sichergestellt werden kann. Die Wiedergabe solcher Information, bei welcher die geforderte Kontinuität sichergestellt ist, wird bezeichnet als "fortlaufende Informationswiedergabe" oder "unterbrechungsfreie Informationswiedergabe". Die Wiedergabe dieser Information, wenn die geforderte Kontinuität nicht sichergestellt werden kann, wird bezeichnet als "nicht fortlaufende Informationswiedergabe" oder "nicht unterbrechungsfreie Informationswiedergabe". Es ist offensichtlich, daß fortlaufende Informationswiedergabe und nicht fortlaufende Informationswiedergabe jeweils die unterbrechungsfreie und nicht unterbrechungsfreie Wiedergabe sind.
  • Es ist anzumerken, daß eine unterbrechungsfreie Wiedergabe weiterhin als unterbrechungsfreie Datenwiedergabe und unterbrechungsfreie Informationswiedergabe kategorisierbar ist. Unterbrechungsfreie Datenwiedergabe ist definiert als Verhindern physikalischer Lücken oder Unterbrechungen in der Datenwiedergabe (inter mittierende Wiedergabe), z. B. als Ergebnis eines Puffer-Unterlaufzustands. Eine unterbrechungsfreie Informationswiedergabe ist definiert als Verhindern erkennbarer Unterbrechungen in der Information, wenn sie durch den Benutzer wahrgenommen wird (intermittierende Darstellung), wenn Informationen aus den Wiedergabedaten erkannt werden, wobei keine tatsächlichen physikalischen Unterbrechungen in der Datenwiedergabe vorhanden sind.
  • Einzelheiten der unterbrechungsfreien Wiedergabe
  • Das eine unterbrechungsfreie Wiedergabe ermöglichende, bestimmte Verfahren, wie somit beschrieben, wird weiter unten anhand der Fig. 23 und 24 beschrieben.
  • Verschachteln
  • Die oben beschriebenen DVD-Daten-Systemströme werden unter Verwendung eines geeigneten Autorenkodierers EC als ein Film oder ein anderer Multimediatitel auf einem DVD-Aufzeichnungsmedium aufgezeichnet. Es ist anzumerken, daß sich die folgende Beschreibung auf einen Film als der verarbeitete Multimediatitel bezieht, es ist aber offensichtlich, daß die Erfindung nicht darauf beschränkt sein soll.
  • Das Liefern eines einzelnen Filmes in einem Format, das erlaubt, daß der Film in mehreren unterschiedlichen kulturellen Regionen oder Ländern verwendet wird, erfordert, daß das Skript in den verschiedenen in den Regionen oder Ländern verwendeten Sprachen aufgezeichnet wird. Es kann ebenfalls das Bearbeiten des Inhalts erfordern, um mit den ethischen und moralischen Erwartungen unterschiedlicher Kulturen übereinzustimmen. Auch bei Verwendungen eines Speichersystems mit großer Kapazität wie dem DVD-System ist es jedoch erforderlich, die Bitgeschwindigkeit zu verringern und daher die Bildqualität, wenn mehrere aus einem einzelnen gemeinsamen Quellentitel bearbeitete Titel in voller Länge auf einer einzelnen Disk aufgezeichnet werden. Dieses Problem kann durch nur einmaliges Aufzeichnen der gemeinsamen Teile mehrerer Titel und lediglich Aufzeichnen der in jedem Titel abweichenden Segmente für jeden abweichenden Titel gelöst werden. Dieses Verfahren macht es möglich, mehrere Titel für verschiedene Länder oder Kulturen auf einer einzelnen optischen Disk aufzuzeichnen, ohne die Bitgeschwindigkeit zu verringern und daher eine hohe Bildqualität beizubehalten.
  • Wie in Fig. 21 gezeigt, enthalten die auf einer einzelnen optischen Disk aufgezeichneten Titel Basis-Szenenperioden von sämtlichen Szenarien gemeinsamen Szenen und Mehrfachszenen-Perioden mit für bestimmte Szenarien spezifischen Szenen, um Eltern-Sperr-Steuerungs- und Mehrfachwinkel-Szenen-Steuerungsfunktionen bereitzustellen.
  • In dem Fall einer Eltern-Sperr-Steuerungsfunktion werden Titel mit Sex-Szenen, Gewalt-Szenen oder anderen für Kinder ungeeignet gehaltenen Szenen, d. h. sogenannte "Erwachsenen-Szenen", mit einer Kombination gemeinsamer Szenen, Erwachsenen-Szenen und Kinder-Szenen aufgezeichnet. Diese Titelströme werden verwirklicht durch Anordnen der Erwachsenen- und Kinder-Szenen in Mehrfachszenen-Perioden zwischen den gemeinsamen Basis-Szenenperioden.
  • Eine Mehrfachwinkel-Steuerung kann in einem konventionellen Einzelwinkel-Titel verwirklicht werden durch Aufzeichnen mehrerer Multimediaszenen, die durch Aufzeichnen der Objekte aus den gewünschten mehreren Kamerawinkeln in den Mehrfachszenen-Perioden erhalten werden, die zwischen den gemeinsamen Basis- Szenenperioden angeordnet sind. Es ist jedoch anzumerken, daß, während diese mehreren Szenen hier als aus unterschiedlichen Kamerawinkeln (Positionen) aufgezeichnete Szenen beschrieben sind, es offensichtlich ist, daß die Szenen aus dem gleichen Kamerawinkel aber zu unterschiedlichen Zeiten aufgezeichnet sind, durch Computergrafik erzeugte Daten oder andere Videodaten sind.
  • Wenn Daten von unterschiedlichen Szenarien eines einzelnen Titels gemeinsam genutzt werden, ist es offensichtlich erforderlich, den Laserstrahl LS während der Wiedergabe von den gemeinsamen Szenendaten zu den nicht gemeinsamen Szenendaten zu bewegen, d. h., den optischen Aufnehmer zu einer anderen Position auf dem DVD-Aufzeichnungsmedium RC1 zu bewegen. Das Problem ist hier, daß die zum Bewegen des optischen Aufnehmers erforderliche Zeit es schwierig macht, die Wiedergabe fortzusetzen, ohne Unterbrechungen in dem Ton oder Bild zu erzeugen, d. h. eine unterbrechungsfreie Wiedergabe zu unterstützen. Dieses Problem kann theoretisch gelöst werden durch Bereitstellen eines Spurpuffers (Strompuffer 2400) zum Verzögern der Datenausgabe um einen Betrag, der äquivalent zu der ungünstigsten Zugriffszeit ist. Allgemein werden auf einer optischen Disk aufgezeichnete Daten durch den optischen Aufnehmer gelesen, geeignet verarbeitet und vorübergehend in dem Spurpuffer gespeichert. Die gespeicherten Daten werden anschließend dekodiert und als Video- oder Audiodaten wiedergegeben.
  • Definition der Verschachtelung
  • Um somit dem Benutzer zu ermöglichen, selektiv Szenen zu übergehen und aus mehreren Szenen zu wählen, tritt notwendigerweise ein Zustand auf, in welchem nicht ausgewählte Szenendaten zwischen gemeinsamen Szenendaten und selektiven Szenendaten eingefügt aufgezeichnet sind, da die den einzelnen Szenen zugeordneten Dateneinheiten fortlaufend in dem Aufzeichnungsspuren des Aufzeichnungsmediums aufgezeichnet sind. Wenn Daten dann in der aufgezeichneten Folge gelesen werden, muß vor dem Zugreifen und Dekodieren der ausgewählten Szenendaten auf nicht ausgewählte Szenendaten zugegriffen werden und unterbrechungsfreie Verbindungen mit den ausgewählten Szenen sind schwierig. Die exzellenten Wahlfrei-Zugriffsmerkmale des Digital-Video-Disk-Systems machen jedoch unterbrechungsfreie Verbindungen mit den ausgewählten Szenen möglich.
  • Mit anderen Worten ist es durch Aufteilen szenen-spezifischer Daten in mehrere Einheiten einer festgelegten Datengröße und Verschachteln mehrerer aufgeteilter Dateneinheiten für unterschiedliche Szenen in einer vorbestimmten Sequenz, die innerhalb des Sprungbereiches auf der Disk aufgezeichnet ist, wobei ein Datenunterlauf-Zustand nicht auftritt, möglich, die ausgewählten Szenen wiederzugeben ohne Datenunterbrechungen durch intermittierendes Zugreifen und Dekodieren der für diese ausgewählten Szenen spezifischen Daten unter Verwendung dieser aufgeteilten Dateneinheiten. Eine unterbrechungsfreie Datenwiedergabe ist daher sichergestellt.
  • Verschachtelter Block und Verschachtelungseinheit
  • Das eine unterbrechungsfreie Datenwiedergabe ermöglichende, erfindungsgemäße Verschachtelungsverfahren ist unten anhand von Fig. 24 und Fig. 67 beschrieben. In Fig. 24 ist ein Fall gezeigt, aus welchem drei Szenarien abgeleitet werden können, d. h. Verzweigen von einem Videoobjekt VOB-A zu einem von mehreren Videoobjekten VOB-B, VOB-C und VOB-D und wieder Zusammenführen zu einem einzelnen Videoobjekt VOB-E. Die tatsächliche Anordnung dieser auf der Daten- Aufzeichnungsspur TR auf der Disk aufgezeichneten Blöcke ist in Fig. 67 gezeigt.
  • In Fig. 67 sind VOB-A und VOB-E Videoobjekte mit unabhängigen Wiedergabe- Anfangs- und End-Zeitpunkten und sind grundsätzlich in fortlaufenden Blockregionen angeordnet. Wie in Fig. 24 gezeigt, sind die Wiedergabe-Anfangs- und End- Zeiten von VOB-B, VOB-C und VOB-D während der Verschachtelung ausgerichtet.
  • Die verschachtelten Datenblöcke werden dann auf der Disk in einer fortlaufenden, verschachtelten Blockregion aufgezeichnet. Die fortlaufenden Blockregionen und verschachtelten Blockregionen werden dann in der Spurpfad-Dr-Richtung in der Wiedergabereihenfolge auf die Disk geschrieben. Mehrere Videoobjekte VOB, d. h., verschachtelte Videoobjekte VOBS, die in der Datenaufzeichnungsspur TR angeordnet sind, sind in Fig. 67 gezeigt.
  • In Fig. 67 werden Datenregionen, in welchen Daten fortlaufend angeordnet sind, als "Blöcke" bezeichnet, von denen es zwei Arten gibt: "fortlaufende Blockregionen", in welchen VOB mit diskreten Anfangs- und Endpunkten fortlaufend angeordnet sind, und "verschachtelte Blockregionen", in welchen mehrere VOB mit ausgerichteten Anfangs- und Endpunkten verschachtelt sind. Die entsprechenden Blöcke sind angeordnet, wie in Fig. 68 in der Wiedergabereihenfolge gezeigt, d. h., Block 1, Block 2, Block 3, ... Block 7.
  • Wie in Fig. 68 gezeigt, besteht der VTS-Titel-VOBS (VTSTT_VOBS) aus Blöcken 1-7 einschließlich. Block 1 enthält allein VOB 1. Die Blöcke 2, 3, 5 und 7 enthalten ebenso diskret VOBS 2, 3, 6 und 10. Die Blöcke 2, 3, 5 und 7 sind somit fortlaufende Blockregionen.
  • Block 4 enthält jedoch miteinander verschachtelt VOB 4 und VOB 5, während Block 6 miteinander verschachtelt VOB 7, VOB 8 und VOB 9 enthält. Die Blöcke 4 und 6 sind somit verschachtelte Blockregionen.
  • Der innere Datenaufbau der fortlaufenden Blockregionen ist in Fig. 69 gezeigt, wobei VOB-i und VOB-j als die fortlaufenden Blöcke in den VOBs angeordnet sind. Wie anhand von Fig. 16 beschrieben, sind VOB-i und VOB-j innerhalb der fortlaufenden Blockregionen weiterhin logisch aufgeteilt in Zellen als die Wiedergabeeinheit. VOB-i und VOB-j sind in dieser Figur beide als drei Zeilen CELL #1, CELL #2 und CELL #3 umfassend gezeigt.
  • Jede Zelle umfaßt eine oder mehrere Video-Objekteinheiten VOBU, wobei die Video-Objekteinheit VOBU die Grenzen der Zelle bestimmt. Jede Zelle enthält ebenfalls die Position der Zelle in der Programmkette PGC identifizierende Informationen (die Wiedergabe-Steuerungsinformation des Digital-Video-Disk-Systems). Insbesondere ist die Positionsinformation die Adresse der ersten und letzten VOBU in der Zelle. Wie ebenfalls in Fig. 69 gezeigt, sind dieses VOB und die darin definierten Zellen ebenfalls in einer fortlaufenden Blockregion aufgezeichnet, so daß fortlaufende Blöcke fortlaufend wiedergegeben werden. Ein Wiedergeben dieser fortlaufenden Blöcke ist daher kein Problem.
  • Der innere Datenaufbau der verschachtelten Blockregionen ist in Fig. 7 gezeigt. In den verschachtelten Blockregionen ist jedes Videoobjekt VOB in verschachtelte Einheiten ILVU aufgeteilt und die jedem VOB zugeordneten, verschachtelten Einheiten ILVU sind alternierend angeordnet. Zellengrenzen sind unabhängig von den verschachtelten Einheiten ILVU definiert. VOB-k ist zum Beispiel in vier verschachtelte Einheiten ILVUk1, ILVUk2, ILVUk3 und ILVUk4 aufgeteilt und von einer einzelnen Zelle CELL#k umschlossen. VOB-m ist ebenso in vier verschachtelte Einheiten ILVUmI, ILVUm2, ILVUm3 und ILVUm4 aufgeteilt und ist von einer einzelnen Zelle CELL#m umschlossen. Es ist anzumerken, daß anstelle einer einzelnen Zelle CELL#k oder CELL#m VOBk und VOB-m jeweils in mehr als zwei Zellen aufgeteilt sein können. Die verschachtelten Einheiten ILVU enthalten somit Audio- und Videodaten.
  • In dem in Fig. 70 gezeigten Beispiel sind die verschachtelten Einheiten ILVUk1, ILVUk2, ILVUk3 und ILVUk4 und ILVUm1, ILVUm2, ILVUm3 und ILVUm4 von zwei verschiedenen Videoobjekten VOB-k und VOB-m alternierend in einem einzelnen verschachtelten Block angeordnet. Durch Verschachteln der verschachtelten Einheiten ILVU der zwei Videoobjekte VOB in dieser Sequenz ist es möglich, eine unterbrechungsfreie Wiedergabe einer Verzweigung von einer Szene zu einer von mehreren Szenen und von einer von mehreren Szenen zu einer Szene zu verwirklichen.
  • Mehrfachszenen-Steuerung
  • Die Mehrfachszenen-Periode wird zusammen mit dem erfindungsgemäßen Konzept der Mehrfachszenen-Steuerung unter beispielhafter Verwendung eines Titels mit aus unterschiedlichen Winkeln aufgezeichneten Szenen beschrieben.
  • Jede Szene in der Mehrfachszenen-Steuerung ist aus dem gleichen Winkel aufgezeichnet, kann aber zu unterschiedlichen Zeiten aufgezeichnet sein, oder kann auch Computergrafikdaten sein. Die Mehrfachwinkel-Szenenperioden können daher ebenfalls als Mehrfachszenen-Perioden bezeichnet werden.
  • Eltern-Steuerung
  • Das Konzept zum Aufzeichnen mehrerer Titel mit alternativen Szenen für solche Funktionen wie Eltern-Sperr-Steuerung und Aufzeichnen von Director's Cuts ist unten unter Verwendung von Fig. 40 beschrieben.
  • Ein Beispiel eines mehrfach-bewerteten Titelstromes zum Bereitstellen einer Eltern- Sperr-Steuerung ist in Fig. 40 gezeigt. Wenn sog. "Ersachsenen-Szenen" mit Sex, Gewalt oder anderen für Kinder ungeeigneten Szenen in einem eine Eltern-Sperr- Steuerung implementierenden Titel enthalten sind, ist der Titelstrom mit einer Kombination gemeinsamer Systemströme SSa, SSb und Sse, einem Erwachsenenorientierten Systemstrom SSc mit den Erwachsenen-Szenen und einem Kinderorientierten Systemstrom SSd mit nur den für Kinder geeigneten Szenen aufgezeichnet. Titelströme wie diese sind als Mehrfachszenen-Systemstrom mit dem Erwachsenen-orientierten Systemstrom Ssc und dem Kinder-orientierten Systemstrom Ssd in den Mehrfachszenen-Perioden zwischen gemeinsamen Systemströmen Ssb und Sse aufgezeichnet.
  • Die Beziehung zwischen jedem der Komponententitel und dem in der Programmkette PGC eines Titelstromes aufgezeichneten Systemstrom, der somit umfaßt ist, ist unten beschrieben.
  • Die Erwachsenen-orientierte Titelprogrammkette PGC1 umfaßt in Sequenz die gemeinsamen Systemströme Ssa und Ssb, den Erwachsenen-orientierten Systemstrom Ssc und den gemeinsamen Systemstrom Sse. Die Kinder-orientierte Titel- Programmkette PGC2 umfaßt in Sequenz die gemeinsamen Systemströme Ssa und Ssb, den Kinder-orientierten Systemstrom Ssd und den gemeinsamen Systemstrom Sse.
  • Durch dieses Anordnung des Erwachsenen-orientierten Systemstromes Ssc und des Kinder-orientierten Systemstromes Ssd in einer Mehrfachszenen-Periode kann das vorstehend beschriebene Dekodierungsverfahren den Titel mit Erwachsenenorientiertem Inhalt durch Wiedergeben der gemeinsamen Systemströme Ssa und Ssb, dann Auswählen und Wiedergeben des Erwachsenen-orientierten Systemstromes Ssc und dann Wiedergeben des gemeinsamen Systemstromes Sse, wie durch die Erwachsenen-orientierte Titelprogrammkette PGC1 angewiesen, wiedergeben. Durch alternativ Folgen der Kinder-orientierten Titelprogrammkette PGC2 und Auswählen des Kinder-orientierten Systemstromes Ssd in der Mehrfachszenen- Periode kann ein Kinder-orientierter Titel, aus welchem Erwachsenen-orientierte Szenen herausgetrennt wurden, wiedergegeben werden.
  • Dieses Verfahren zum Bereitstellen einer Mehrfachszenen-Periode mit mehreren alternativen Szenen, Auswählen, welche der Szenen in der Mehrfachszenen-Periode wiederzugeben sind, bevor die Wiedergabe beginnt, und Erzeugen mehrerer Titel mit im wesentlichen dem gleichen Titelinhalt aber teilweise unterschiedlichen Szenen wird als Eltern-Sperr-Steuerung bezeichnet.
  • Es ist anzumerken, daß die Eltern-Sperr-Steuerung wegen des wahrgenommenen Bedürfnisses zum Schützen der Kinder vor ungeeignetem Inhalt so bezeichnet wird. Aus der Perspektive der Systemstromverarbeitung ist die Eltern-Sperr-Steuerung jedoch eine Technologie zum statischen Erzeugen unterschiedlicher Titelströme durch die Benutzer-Vorauswahl bestimmter Szenen aus einer Mehrfachszenen- Periode. Es ist weiterhin anzumerken, daß dies mit einer Mehrfachwinkel-Szenensteuerung kontrastiert, welche eine Technologie zum dynamischen Ändern des Inhalts eines einzelnen Titels durch den Benutzer ist, der Szenen aus den Mehrfachszenen-Perioden frei und in Echtzeit während der Titelwiedergabe selektiert.
  • Diese Eltern-Sperr-Steuerungs-Technologie kann ebenfalls verwendet werden, um eine Titelstrom-Bearbeitung zu ermöglichen, wie beim Herstellen des Director's Cut. Der Director's Cut bezeichnet den Vorgang der Bearbeitung bestimmter Szenen aus einem Film, um zum Beispiel die Gesamt-Darstellungszeit zu verkürzen. Dies kann zum Beispiel erforderlich sein, um einen Film voller Länge zur Betrachtung in einem Flugzeug zu bearbeiten, wo die Darstellungszeit zur Betrachtung innerhalb der Flugzeit zu lang ist, oder wenn ein bestimmter Inhalt nicht akzeptabel ist. Der Filmregisseur bestimmt somit, welche Szenen geschnitten werden, um den Film zu kürzen. Der Titel kann dann mit einem unbearbeiteten Systemstrom voller Länge und einem bearbeiteten Systemstrom aufgezeichnet werden, bei welchem die bearbeiteten Szenen in Mehrfachszenen-Perioden aufgezeichnet sind. Bei dem Übergang von einem Systemstrom zu dem anderen Systemstrom in solchen Anwendungen muß eine Eltern-Sperr-Steuerung in der Lage sein, eine gleichförmige Bildwiedergabe zu unterstützen. Insbesondere sind eine unterbrechungsfreie Datenwiedergabe, bei welcher ein Datenunterlauf-Zustand in den Ton-, Bild- oder anderen Puffern nicht auftritt, und eine unterbrechungsfreie Informationswiedergabe, bei welcher keine unnatürlichen Unterbrechungen hörbar oder sichtbar in der Audio- und Videowiedergabe wahrnehmbar sind, erforderlich.
  • Mehrfachwinkel-Steuerung
  • Das Konzept der Mehrfachwinkel-Szenensteuerung in der vorliegenden Erfindung wird als nächstes anhand von Fig. 33 beschrieben. Allgemein werden Multimediatitel erhalten durch Aufzeichnen der Audio- und Video-Information (unten kollektiv "Aufzeichnen") des Objektes über der Zeit T. Die Winkelszenenblöcke #SC1, #SM1, #SM2, #SM3 und #SC3 stellen die zu den Aufzeichnungseinheiten-Zeiten T1, T2 und T3 durch Aufzeichnen des Objektes aus entsprechenden Kamerawinkeln erhaltenen Multimediaszenen dar. Die Szenen #SM1, #SM2 und #SM3 werden in voneinander verschiedenen (ersten, zweiten und dritten) Kamerawinkeln während der Aufzeichnungseinheiten-Zeit T2 aufgezeichnet und unten als erste, zweite und dritte Winkelszenen bezeichnet.
  • Es ist anzumerken, daß die hier angesprochenen Mehrfachszenen-Perioden grundsätzlich als aus unterschiedlichen Winkeln aufgezeichnete Szenen umfassend angenommen werden. Die Szenen können jedoch aus dem gleichen Winkel, aber zu unterschiedlichen Zeiten aufgezeichnet sein, oder sie können Computer-Grafikdaten sein. Die Mehrfachwinkel-Szenenperioden sind somit die Mehrfachszenen- Perioden, aus welchen mehrere Szenen zur Darstellung in der gleichen Zeitperiode selektierbar sind, gleich, ob die Szenen tatsächlich in unterschiedlichen Kamerawinkeln aufgezeichnet sind oder nicht.
  • Die Szenen #SC1 und #SC3 sind aus dem gleichen, gemeinsamen Kamerawinkel während der Aufzeichnungseinheiten-Zeiten T1 und T3 aufgezeichnete Szenen, d. h., vor und nach den Mehrfachwinkel-Szenen. Diese Szenen werden daher als "gemeinsame Winkelszenen" bezeichnet. Es ist anzumerken, daß einer der mehreren in den Mehrfachwinkel-Szenen verwendeten, mehreren Kamerawinkel gewöhnlich der gleiche wie der gemeinsame Kamerawinkel ist.
  • Um die Beziehung zwischen diesen verschiedenen Winkelszenen zu verstehen, wird die Mehrfachwinkel-Szenensteuerung unten unter nur beispielhafter Verwendung einer Live-Rundfunkübertragung eines Baseballspieles beschrieben.
  • Die gemeinsamen Winkelszenen #SC1 und #SC3 sind aus dem gemeinsamen Kamerawinkel aufgezeichnet, welcher hier als die Sicht vom Mittelfeld auf der Achse durch den Pitcher, Batter und Catcher definiert ist.
  • Die erste Winkelszene #SM1 ist aus dem ersten Mehrfach-Kamerawinkel aufgezeichnet, d. h., dem Kamerawinkel von dem Backstop auf der Achse durch den Catcher, Pitcher und Batter. Die zweite Winkelszene #SM2 ist aus dem zweiten Mehrfach-Kamerawinkel aufgezeichnet, d. h., die Sicht vom Mittelfeld auf der Achse durch den Pitcher, Batter und Catcher. Es ist anzumerken, daß die zweite Winkelszene #SM2 somit die gleiche wie der gemeinsame Kamerawinkel in diesem Beispiel ist. Daher folgt, daß die zweite Winkelszene #SM2 die gleiche wie die gemeinsame Winkelszene #SC2 ist, die während der Aufzeichnungseinheiten-Zeit T2 aufgezeichnet wird. Die dritte Winkelszene #SM3 wird aus dem dritten Mehrfach-Kamerawinkel aufgezeichnet, d. h., dem Kamerawinkel von dem Backstop mit Blick auf das Innenfeld.
  • Die Darstellungszeiten der Mehrfach-Winkelszenen #SM1, #SM2 und #SM3 überlappen in der Aufzeichnungseinheiten-Zeit T2; diese Periode wird als die "Mehrfachwinkel-Szenenperiode" bezeichnet. Durch freies Auswählen von einer der mehreren Winkelszenen #SM1, #SM2 und #SM3 in dieser Mehrfachwinkel-Szenenperiode ist der Betrachter in der Lage, seine oder ihre virtuelle Betrachtungsposition zu ändern, um eine andere Ansicht des Spieles zu genießen, als wenn der tatsächliche Kamerawinkel geändert ist. Es ist anzumerken, daß, während eine Zeitlücke zwischen den gemeinsamen Winkelszenen #SC1 und #SC3 und den Mehrfach-Winkelszenen #SM1, #SM2 und #SM3 in Fig. 33 vorhanden zu sein scheint, dies einfach zum Unterstützen der Verwendung von Pfeilen in der Figur zur leichteren Beschreibung der durch Auswählen unterschiedlicher Winkelszenen wiedergegebenen Daten-Wiedergabepfade dient. Es gibt keine tatsächliche Zeitlücke während der Wiedergabe.
  • Die Mehrfachwinkel-Szenensteuerung des Systemstromes wird basierend auf der vorliegenden Erfindung als nächstes anhand von Fig. 23 aus der Perspektive der Verbindung von Datenblöcken beschrieben. Die der gemeinsamen Winkelszene #SC entsprechenden Multimediadaten werden als gemeinsame Winkeldaten BA bezeichnet, und die gemeinsamen Winkeldaten BA in Aufzeichnunseinheiten-Zeiten T1 und T3 werden als BA1 und BA3 bezeichnet. Die den Mehrfachwinkel-Szenen #SM1, #SM2 und #SM3 entsprechenden Multimediadaten werden als erste, zweite und dritte Winkelszenen-Daten MA1, MA2 und MA3 bezeichnet. Wie vorstehend anhand von Fig. 33 beschrieben, können Szenen aus den gewünschten Winkeln betrachtet werden durch Auswählen von einer der mehreren Winkeldaten-Einheiten MA1, MA2 und MA3. Es gibt ebenfalls keine Zeitlücke zwischen den gemeinsamen Winkeldaten BA1 und BA3 und den mehrfachen Winkeldaten-Einheiten MA1, MA2 und MA3.
  • In dem Fall eines MPEG-Systemstromes können jedoch intermittierende Unterbrechungen in der Wiedergabeinformation zwischen den wiedergegebenen, gemeinsamen und Mehrfach-Winkeldaten-Einheiten abhängig von dem Inhalt der Daten an der Verbindung zwischen den ausgewählten Mehrfachwinkel-Dateneinheiten MA1, MA2 und MA3 und den gemeinsamen Winkeldaten BA (entweder den ersten gemeinsamen Winkeldaten BA1 vor dem in der Mehrfachwinkel-Szenenperiode selektierten Winkel oder den gemeinsamen Winkeldaten BA3 nach dem in der Mehrfachwinkel-Szenenperiode selektierten Winkel) resultieren. Das Ergebnis ist in diesem Fall, daß der Titelstrom nicht natürlich als ein einzelner, fortlaufender Titel wiedergegeben wird, d. h., eine fortlaufende Datenwiedergabe wird verwirklicht, aber eine nicht unterbrechungsfreie Informationswiedergabe resultiert.
  • Der Mehrfachwinkel-Selektionsvorgang, bei welchem eine von mehreren Szenen selektiv aus der Mehrfachwinkel-Szenenperiode mit unterbrechungsfreier Informationsdarstellung mit den Szenen davor und danach wiedergegeben wird, wird unten bei der Anwendung in einem Digital-Video-Disk-System unter Verwendung von Fig. 23 beschrieben.
  • Ein Ändern des Szenenwinkels, d. h., Auswählen von einer der mehreren Winkeldaten-Einheiten MA1, MA2 und MA3 muß beendet sein, bevor die Wiedergabe der vorausgehenden, gemeinsamen Winkeldaten BA1 beendet ist. Es ist außerordentlich schwierig, während der Wiedergabe der gemeinsamen Winkeldaten BA1 zum Beispiel zu einer anderen Winkeldaten-Einheit MA2 zu wechseln. Dies ist der Fall, da die Multimediadaten einen längenveränderlich kodierten MPEG-Datenaufbau haben, welcher es schwierig macht, die Daten-Unterbrechungspunkte (Grenzen) in den selektierten Datenblöcken zu finden. Das Bild kann ebenfalls unterbrochen werden, wenn der Winkel geändert wird, da Inter-Rahmen-Korrelationen in dem Kodierungsvorgang verwendet werden. Die Bildergruppen-GOP-Verarbeitungseinheit des MPEG-Standards enthält wenigstens einen Refresh-Rahmen, und eine geschlossene Verarbeitung, die nicht zu einer anderen GOP gehörende Rahmen anspricht, ist innerhalb dieser GOP-Verarbeitungseinheit möglich.
  • Mit anderen Worten, wenn die gewünschten Winkeldaten, z. B. MA3, selektiert sind, bevor die Wiedergabe die Mehrfachwinkel-Szenenperiode erreicht, und spätestens zum Zeitpunkt, zu dem die Wiedergabe der vorausgehenden, gemeinsamen Winkeldaten BA1 beendet ist, können die aus der Mehrfachwinkel-Szenenperiode selektierten Winkeldaten unterbrechungsfrei wiedergegeben werden. Es ist jedoch außerordentlich schwierig, während der Wiedergabe eines Winkels einen anderen Winkel innerhalb der gleichen Mehrfachwinkel-Szenenperiode auszuwählen und unterbrechungsfrei wiederzugeben. Daher ist es in einer Mehrfachwinkel- Szenenperiode schwierig, dynamisch eine andere Winkeleinheit auszuwählen, die zum Beispiel eine Sicht aus einem anderen Kamerawinkel darstellt.
  • Flußdiagramm: Kodierer
  • Die durch die Kodierungs-Systemsteuerung 200 aus der aus den Szenariodaten St7 extrahierten Informationen erzeugte Kodierungs-Informationstabelle wird unten anhand von Fig. 27 beschrieben.
  • Die Kodierungs-Informationstabelle enthält VOB-Satz-Datenströme mit mehreren VOB entsprechend den Szenenperioden, welche an den Szenen-Verzweigungs- und Verbindungs-Punkten beginnen und enden, und VOB-Datenströmen entsprechend jeder Szene. Diese in Fig. 27 gezeigten VOB-Satz-Datenströme sind die in dem Schritt #100 in Fig. 34 durch die Kodierungs-Systemsteuerung 200 erzeugten Kodierungs-Informationstabellen zum Erzeugen des DVD-Multimediastromes basierend auf dem benutzer-definierten Titelinhalt.
  • Das benutzer-definierte Szenario enthält Verzweigungspunkte von gemeinsamen Szenen zu mehreren Szenen, oder Verbindungspunkte zu anderen gemeinsamen Szenen. Das der durch diese Verzweigungs- und Verbindungs-Punkte beschränkte Szenenperiode entsprechende VOB ist ein VOB-Satz und die zum Kodieren eines VOB-Satzes erzeugten Daten sind der VOB-Satz-Datenstrom. Die durch den VOB- Satz-Datenstrom festgelegte Titelnummer ist die Titelnummer TITLE_NO des VOB- Satz-Datenstromes.
  • Der VOB-Satz-Datenaufbau in Fig. 27 zeigt den Dateninhalt zum Kodieren eines VOB-Satzes in dem VOB-Satz-Datenstrom und umfaßt: die VOB-Satznummer VOBS_NO, die VOB-Nummer VOB_NO in dem VOB-Satz, das Unterbrechungsfrei- Verbindungsflag des vorausgehenden VOB VOB_Fsb, das Unterbrechungsfrei- Verbindungsflag des nachfolgenden VOB VOB_Fsf, das Mehrfachszenen-Flag VOB_Fp, das Verschachtelungs-Flag VOB_Fi, das Mehrfachwinkel-Flag VOB_Fm, das Mehrfachwinkel-Unterbrechungsfrei-Umschaltflag VOB_FsV, die maximale Bitgeschwindigkeit des verschachtelten VOB_ILV_BR, die Anzahl der verschachtelten VOB-Unterteilungen ILV_DIV und die minimale Verschachtelungseinheiten- Darstellungszeit ILVU_MT.
  • Die VOB-Satznummer VOBS_NO ist eine sequentielle Nummer, welche den VOB- Satz und die Position des VOB-Satzes in der Wiedergabe-Reihenfolge des Titelszenarios identifiziert.
  • Die VOB-Nummer VOB_NO ist eine sequentielle Nummer, welche das VOB und die Position des VOB in der Wiedergabe-Sequenz des Titelszenarios identifiziert.
  • Das Unterbrechungsfrei-Verbindungsflag des vorausgehenden VOB VOB_Fsb gibt an, ob eine unterbrechungsfreie Verbindung mit dem vorausgehenden VOB für die Szenario-Wiedergabe erforderlich ist.
  • Das Unterbrechungsfrei-Verbindungsflag des folgenden VOB VOB_Fsf gibt an, ob eine unterbrechungsfreie Verbindung mit dem folgenden VOB während der Szenario-Wiedergabe vorhanden ist.
  • Das Mehrfachszenen-Flag VOB_Fp gibt an, ob der VOB-Satz mehrere Videoobjekte VOB umfaßt.
  • Das Verschachtelungs-Flag VOBFi gibt an, ob das VOB in dem VOB-Satz verschachtelt ist.
  • Das Mehrfachwinkel-Flag VOB_Fm gibt an, ob der VOB-Satz ein Mehrfachwinkel- Satz ist.
  • Das Mehrfachwinkel-Unterbrechungsfrei-Umschaltflag VOB_FsV gibt an, ob Winkeländerungen innerhalb der Mehrfachwinkel-Szenenperiode unterbrechungsfrei sind oder nicht.
  • Die maximale Bitgeschwindigkeit des verschachtelten VOB ILV_BR definiert die maximale Bitgeschwindigkeit der verschachtelten VOBs.
  • Die Anzahl der verschachtelten VOB-Aufteilungen ILV_DIV gibt die Anzahl der Verschachtelungseinheiten in dem verschachtelten VOB an.
  • Die minimale Verschachtelungseinheiten-Darstellungszeit ILVU_MT bestimmt die Zeit, die wiedergebbar ist, wenn die Bitgeschwindigkeit der kleinsten Verschachtelungseinheit, bei welcher ein Spurpuffer-Datenunterlauf-Zustand nicht auftritt, die maximale Bitgeschwindigkeit des verschachtelten VOB_ILV_BR während der Wiedergabe des verschachtelten Blockes ist.
  • Die durch die Kodierungs-Systemsteuerung 200 basierend auf den Szenariodaten St7 erzeugte Kodierungs-Informationstabelle für jedes VOB wird unten anhand von Fig. 28 beschrieben. Die unten beschriebenen und zu dem Videokodierer 300, dem Audiokodierer 700 und dem Systemkodierer 900 zur Stromkodierung gelieferten VOB-Kodierungsparameter werden basierend auf dieser Kodierungs-Informationstabelle erzeugt.
  • Die in Fig. 28 gezeigten VOB-Datenströme sind die in dem Schritt #100 in Fig. 34 durch die Kodierungs-Systemsteuerung 200 erzeugten Kodierungs-Informationstabellen zum Erzeugen des DVD-Multimediastromes, basierend auf dem benutzerdefinierten Titelinhalt.
  • Die Kodierungseinheit ist das Videoobjekt VOB und die zum Kodieren jedes Videoobjektes VOB erzeugten Daten sind der VOB-Datenstrom. Ein VOB-Satz umfaßt zum Beispiel drei Winkelszenen mit drei Videoobjekten VOB. Der in Fig. 28 gezeigte Datenaufbau zeigt den Inhalt der Daten zum Kodieren eines VOB in dem VOB- Datenstrom.
  • Der VOB-Datenaufbau enthält die Videomaterial-Anfangszeit VOB_VST, die Videomaterial-Endzeit VOB_VEND, den Videosignal-Typ VOB_V_KIND, die Videokodierungs-Bitgeschwindigkeit V_BR, die Audiomaterial-Anfangszeit VOB_AST, die Audiomaterial-Endzeit VOB_AEND, das Audio-Kodierungsverfahren VOB_A_KIND und die Audiokodierungs-Bitgeschwindigkeit A_BR.
  • Die Videomaterial-Anfangszeit VOB_VST ist die Videokodierungs-Anfangszeit entsprechend der Zeit des Videosignals.
  • Die Videomaterial-Endzeit VOB_VEND ist die Videokodierungs-Endzeit entsprechend der Zeit des Videosignals.
  • Der Videomaterial-Typ VOB_V_KIND gibt an, ob das kodierte Material im NTSC- oder PAL-Format ist, oder fotografisches Material ist (zum Beispiel ein Film), konvertiert in ein Fernseh-Rundfunkformat (sogenannte Tele-cine-Umwandlung).
  • Die Videokodierungs-Bitgeschwindigkeit V_BR ist die Bitgeschwindigkeit, mit welcher das Videosignal kodiert wird.
  • Die Audiomaterial-Anfangszeit VOB_AST ist die Audiokodierungs-Anfangszeit entsprechend der Zeit des Audiosignals.
  • Die Audiomaterial-Endzeit VOB_AEND ist die Audiokodierungs-Endzeit entsprechend der Zeit des Audiosignals.
  • Das Audio-Kodierungsverfahren VOB_A_KIND gibt das Audio-Kodierungsverfahren zum Beispiel als AC-3, MPEG, oder lineare PCM an.
  • Die Audiokodierungs-Bitgeschwindigkeit A_BR ist die Bitgeschwindigkeit, mit welcher das Audiosignal kodiert wird.
  • Die von dem Videokodierer 300, dem Sub-Bild-Kodierer 500 und dem Audiokodierer 700 und dem Systemkodierer 900 zur VOB-Kodierung verwendeten Kodierungs- Parameter sind in Fig. 29 gezeigt. Die Kodierungs-Parameter beinhalten: die VOB- Nummer VOB_NO, die Videokodierungs-Anfangszeit V_STTM, die Videokodierungs- Endzeit V_ENDTM, den Video-Kodierungsmodus V_ENCMD, die Videokodierungs- Bitgeschwindigkeit V_RATE, die maximale Videokodierungs-Bitgeschwindigkeit V_MRATE, das GOP-Aufbau-Fixierungsflag GOP Fxflag, den Videokodierungs-GOP- Aufbau GOPST, die Anfangs-Videokodierungsdaten V_INTST, die letzten Videokodierungsdaten V_ENDST, die Audiokodierungs-Anfangszeit A_STTM, die Audio- Kodierungs-Endzeit A_ENDTM, die Audiokodierungs-Bitgeschwindigkeit A_RATE, das Audio-Kodierungsverfahren A_ENCMD, die Audio-Anfangslücke A_STGAP, die Audio-Endlücke A_ENDGAP, die vorausgehende VOB-Nummer B_VOB_NO und die folgende VOB-Nummer F_VOB_NO.
  • Die VOB-Nummer VOB_NO ist eine sequentielle Zahl, welche das VOB und die Position des VOB in der Wiedergabe-Reihenfolge des Titelszenarios angibt.
  • Die Videokodierungs-Anfangszeit V_STTM ist die Anfangszeit der Videomaterial- Kodierung.
  • Die Videokodierungs-Endzeit V_ENDTM ist die Endzeit der Videomaterial-Kodierung.
  • Der Videokodierungsmodus V_ENCMD ist ein Kodierungsmodus zum Angeben, ob eine umgekehrte tele-cine-Konversion während der Videokodierung verwirklicht werden soll, um eine effiziente Kodierung zu ermöglichen, wenn das Videomaterial tele-cine-konvertiertes Material ist.
  • Die Videokodierungs-Bitgeschwindigkeit V_RATE ist die mittlereßitgeschwindigkeit der Videokodierung.
  • Die maximale Videokodierungs-Bitgeschwindigkeit V_MRATE ist die maximale Bitgeschwindigkeit der Videokodierung.
  • Das GOP-Aufbau-Fixierungsflag GOP Fxflag gibt an, ob eine Kodierung verwirklicht wird, ohne den GOP-Aufbau in der Mitte des Video-Kodierungsvorgangs zu ändern.
  • Dies ist ein hilfreicher Parameter zum Angeben, ob eine unterbrechungsfreie Umschaltung in einer Mehrfachwinkel-Szenenperiode ermöglicht wird.
  • Der Videokodierungs-GOP-Aufbau GOPST sind die GOP-Aufbau-Daten von der Kodierung.
  • Die Anfangs-Video-Kodierungsdaten V_INTST setzen den Anfangswert des VBV- Puffers (Dekodiererpuffer) am Anfang der Videokodierung und werden während der Videodekodierung angesprochen, um den Dekodierungspuffer zu initialisieren. Dies ist ein nützlicher Parameter zum Angeben einer unterbrechungsfreien Wiedergabe mit dem vorausgehenden, kodierten Videostrom.
  • Die letzten Video-Kodierungsdaten V_ENDST setzen den Endwert des VBV-Puffers (Dekodierungspuffer) am Ende der Videokodierung und werden während der Videodekodierung angesprochen, um den Dekodierungspuffer zu initialisieren. Dies ist ein nützlicher Parameterzum Angeben einer unterbrechungsfreien Wiedergabe mit dem vorausgehenden, kodierten Videostrom.
  • Die Audiokodierungs-Anfangszeit A_STTM ist die Anfangszeit der Audiomaterial- Kodierung.
  • Die Audiokodierungs-Endzeit A_ENDTM ist die Endzeit der Audiomaterial-Kodierung.
  • Die Audiokodierungs-Bitgeschwindigkeit A_RATE ist die zur Audiokodierung verwendete Bitgeschwindigkeit.
  • Das Audio-Kodierungsverfahren A_ENCMD gibt das Audio-Kodierungsverfahren an, zum Beispiel wie AC-3, MPEG, oder lineare PCM.
  • Die Audio-Anfangslücke A_STGAP ist der Zeitversatz zwischen dem Beginn der Audio- und Videodarstellung am Beginn eines VOB. Dies ist ein nützlicher Parameter zum Angeben einer unterbrechungsfreien Wiedergabe mit dem vorausgehenden, kodierten Systemstrom.
  • Die Audio-Endlücke A_ENDGAP ist der Zeitversatz zwischen dem Ende der Audio- und Video-Darstellung am Ende eines VOB. Dies ist ein nützlicher Parameter zum Angeben einer unterbrechungsfreien Wiedergabe mit dem vorausgehenden, kodierten Systemstrom.
  • Die vorausgehende VOB-Nummer B_VOB_NO ist die VOB_NO des vorausgehenden VOB, wenn ein unterbrechungsfrei verbundenes, vorausgehendes VOB vorhanden ist.
  • Die folgende VOB-Nummer F_VOB_NO ist die VOB_NO des folgenden VOB, wenn ein unterbrechungsfrei verbundenes, folgendes VOB vorhanden ist.
  • Die Wirkungsweise eines erfindungsgemäßen DVD-Kodierers ECD wird unten anhand des Flußdiagramms in Fig. 34 beschrieben. Es ist anzumerken, daß mit einer doppelten Linie gezeigte Schritte Unterroutinen sind. Es ist offensichtlich, daß, während der unten beschriebene Vorgang insbesondere diesen Fall des DVD- Kodierers ECD der vorliegenden Erfindung betrifft, der beschriebene Ablauf ebenfalls auf einen Autorenkodierer EC anwendbar ist.
  • In dem Schritt # 100 gibt der Benutzer die Bearbeitungsanweisungen entsprechend dem benutzer-definierten Szenario ein, während er den Inhalt der Multimedia- Quellendaten-Ströme St1, St2 und St3 bestätigt.
  • In dem Schritt #200 erzeugt der Szenario-Editor 100 die Szenariodaten St7 mit den obigen Bearbeitungs-Anweisungsinformationen entsprechend den Bearbeitungsanweisungen des Benutzers.
  • Beim Erzeugen der Szenariodaten St7 in dem Schritt #200 müssen die Benutzer- Bearbeitungsanweisungen, die zu Mehrfachwinkel- und Eltern-Sperr-Mehrfachszenen-Perioden gehören, in welchen eine Verschachtelung vorausgesetzt wird, eingegeben werden, um die folgenden Bedingungen zu erfüllen.
  • Zuerst muß die maximale VOB-Bitgeschwindigkeit gesetzt werden, um eine ausreichende Bildqualität sicherzustellen und die Spurpuffer-Kapazität, die Sprungleistung, die Sprungzeit und die Sprungdistanz des als Wiedergabevorrichtung der DVD-kodierten Daten verwendeten DVD-Dekodierers DCD müssen bestimmt werden. Basierend auf diesen Werten wird die Wiedergabezeit der kürzesten Verschachtelungseinheit aus den Gleichungen 3 und 4 erhalten. Basierend auf der Wiedergabezeit jeder Szene in der Mehrfachszenenperiode muß dann bestimmt werden, ob die Gleichungen 5 und 6 erfüllt werden. Wenn die Gleichungen 5 und 6 nicht erfüllt werden, muß der Benutzer die Bearbeitungsanweisungen ändern, bis die Gleichungen 5 und 6 erfüllt werden, zum Beispiel durch Verbinden eines Teils der folgenden Szene mit jeder Szene in der Mehrfachszenenperiode.
  • Wenn Mehrfachwinkel-Bearbeitungsanweisungen verwendet werden, muß die Gleichung 7 zur unterbrechungsfreien Umschaltung erfüllt werden und Bearbeitungsanweisungen, welche die Audio-Wiedergabezeit mit der Wiedergabezeit jeder Szene in jedem Winkel in Übereinstimmung bringen, müssen eingegeben werden. Wenn eine nicht unterbrechungsfreie Umschaltung verwendet wird, muß der Benutzer Befehle eingeben, um die Gleichung 8 zu erfüllen.
  • In dem Schritt #300 bestimmt die Kodierungs-Systemsteuerung 200 basierend auf den Szenariodaten St7 zuerst, ob die Zielszene unterbrechungsfrei mit der vorausgehenden Szene zu verbinden ist.
  • Es ist anzumerken, daß, wenn die vorausgehende Szenenperiode eine Mehrfachszenenperiode mit mehreren Szenen ist, aber die gegenwärtig selektierte Zielszene eine gemeinsame Szene ist (nicht in einer Mehrfachszenenperiode) eine unterbrechungsfreie Verbindung sich auf ein unterbrechungsfreies Verbinden der Zielszene mit jeder einzelnen der in der vorausgehenden Mehrfachszenenperiode enthaltenen Szenen bezieht. Wenn die Zielszene eine Mehrfachszenenperiode ist, bezieht sich eine unterbrechungsfreie Verbindung auch auf das unterbrechungsfreie Verbinden der Zielszene mit jeder einzelnen der Szenen aus der gleichen Mehrfachszenenperiode.
  • Wenn der Schritt #300 NEIN zurückgibt, d. h., eine nicht unterbrechungsfreie Verbindung gültig ist, geht der Ablauf über zu dem Schritt #400.
  • In dem Schritt #400 setzt die Kodierungs-Systemsteuerung 200 das Unterbrechungsfrei-Verbindungsflag des vorausgehenden VOB_Esb zurück, das angibt, ob eine unterbrechungsfreie Verbindung zwischen dem Ziel und vorausgehenden Szenen vorhanden ist. Der Ablauf geht dann über zu dem Schritt #600.
  • Wenn der Schritt #300 andererseits JA zurückgibt, d. h., eine unterbrechungsfreie Verbindung zu der vorausgehenden Szene vorhanden ist, geht der Ablauf über zu dem Schritt #500.
  • In dem Schritt #500 setzt die Kodierungs-Systemsteuerung 200 das Unterbrechungsfrei-Verbindungsflag des vorausgehenden VOB_Fsb. Der Ablauf geht dann über zu dem Schritt #600.
  • In dem Schritt #600 bestimmt die Kodierungs-Systemsteuerung 200, ob eine unterbrechungsfreie Verbindung zwischen dem Ziel und folgenden Szenen vorhan den ist, basierend auf den Szenariodaten St7. Wenn der Schritt #600 NEIN zurückgibt, d. h., eine nicht unterbrechungsfreie Verbindung gültig ist, geht der Ablauf über zu dem Schritt #700.
  • In dem Schritt #700 setzt die Kodierungs-Systemsteuerung 200 das Unterbrechungsfrei-Verbindungsflag des folgenden VOB VOB_Fsf zurück, das angibt, ob eine unterbrechungsfreie Verbindung mit der folgenden Szene vorhanden ist. Der Ablauf geht dann über zu dem Schritt #900.
  • Wenn der Schritt #600 jedoch JA zurückgibt, d. h., eine unterbrechungsfreie Verbindung mit der folgenden Szene vorhanden ist, geht der Ablauf über zu dem Schritt #800.
  • In dem Schritt #800 setzt die Kodierungs-Systemsteuerung 200 das Unterbrechungsfrei-Verbindungsflag des folgenden VOB VOB_Fsf. Der Ablauf geht dann über zu dem Schritt #900.
  • In dem Schritt #900 bestimmt die Kodierungs-Systemsteuerung 200, ob mehr als eine Verbindungs-Zielszene vorhanden ist, d. h., ob eine Mehrfachszenenperiode selektiert ist, basierend auf den Szenariodaten St7. Wie vorstehend beschrieben, gibt es zwei mögliche Steuerungsverfahren in Mehrfachszenenperioden: Eltern- Sperr-Steuerung, bei welcher nur einer von mehreren möglichen Wiedergabepfaden, die aus den Szenen in der Mehrfachszenenperiode aufgebaut werden können, wiedergegeben wird, und eine Mehrfachwinkel-Steuerung, bei welcher der Wiedergabepfad innerhalb der Mehrfachszenenperiode umschaltbar ist, um unterschiedliche Betrachtungswinkel darzustellen.
  • Wenn der Schritt #900 NEIN zurückgibt, d. h., keine Mehrfachszenen vorhanden sind, geht der Ablauf über zu dem Schritt #1000.
  • In dem Schritt #1000 wird das Mehrfachszenen-Flag VOB_Fp, das angibt, ob ein VOB-Satz mehrere Videoobjekte VOB umfaßt (eine Mehrfachszenenperiode ist ausgewählt) zurückgesetzt, und der Ablauf geht über zu dem Schritt #1800 zur Kodierungsparameter-Erzeugung. Diese Kodierungsparameter-Erzeugungs-Unterroutine ist unten beschrieben.
  • Wenn der Schritt #900 jedoch JA zurückgibt, ist eine Mehrfachszenen-Verbindung vorhanden und der Ablauf geht über zu dem Schritt #1100.
  • In dem Schritt #1100 wird das Mehrfachszenenflag VOB_Fp gesetzt und der Ablauf geht über zu dem Schritt #1200, wo beurteilt wird, ob eine Mehrfachwinkel- Verbindung ausgewählt ist oder nicht.
  • In dem Schritt #1200 wird bestimmt, ob ein Wechsel zwischen mehreren Szenen in der Mehrfachszenenperiode ausgeführt wird, d. h. ob eine Mehrfachwinkel- Szenenperiode ausgewählt ist. Wenn der Schritt #1200 NEIN zurückgibt, d. h., in der Mehrfachszenenperiode ist kein Szenenwechsel erlaubt, da die nur einen Wiedergabepfad wiedergebende Eltern-Sperr-Steuerung ausgewählt wurde, geht der Ablauf über zu dem Schritt #1300.
  • In dem Schritt #1300 wird das Mehrfach-Winkelflag VOB_Em, das angibt, ob die Ziel-Verbindungszene eine Mehrfach-Winkelszene ist, zurückgesetzt, und der Ablauf geht über zu dem Schritt #1302.
  • In dem Schritt #1302 wird bestimmt, ob entweder das Unterbrechungsfrei-Verbindungsflag des vorausgehenden VOB VOB_Fsb oder das Unterbrechungsfrei- Verbindungsflag des folgenden VOB VOB_Fsf gesetzt wird. Wenn der Schritt #1302 JA zurückgibt, d. h., die Ziel-Verbindungsszene ist unterbrechungsfrei mit der vorausgehenden, der folgenden oder der vorausgehenden und der folgenden. Szene verbunden, geht der Ablauf über zu dem Schritt #1304.
  • In dem Schritt #1304 wird das Verschachtelungs-Flag VOB_Fi, das angibt, ob das VOB, die kodierten Daten der Ziel-Szene, verschachtelt sind, gesetzt. Der Ablauf geht dann über zu dem Schritt #1800.
  • Wenn der Schritt #1302 jedoch NEIN zurückgibt, d. h., die Ziel-Verbindungsszene ist nicht unterbrechungsfrei mit der vorausgehenden oder folgenden Szene verbunden, geht der Ablauf über zu dem Schritt #1306.
  • In dem Schritt #1306 wird das Verschachtelungs-Flag VOB_Fi zurückgesetzt, und der Ablauf geht über zu dem Schritt #1800.
  • Wenn der Schritt #1200 jedoch JA zurückgibt, d. h., eine Mehrfachwinkel-Verbindung vorhanden ist, geht der Ablauf über zu dem Schritt #1400.
  • In dem Schritt #1400 werden das Mehrfachwinkel-Flag VOB_Fm und das Verschachtelungs-Flag VOB_Fi gesetzt, und der Ablauf geht über zu dem Schritt #1500.
  • In dem Schritt #1500 bestimmt die Kodierungs-Systemsteuerung 200, ob der Ton und das Bild in einer Mehrfachwinkel-Szenenperiode unterbrechungsfrei umgeschaltet werden können, d. h., in einer kleineren Wiedergabeeinheit als das VOB, basierend auf den Szenariodaten St7. Wenn der Schritt #1500 NEIN zurückgibt, d. h., eine nicht unterbrechungsfreie Umschaltung auftritt, geht der Ablauf über zu dem Schritt #1600.
  • In dem Schritt #1600 wird das Mehrfachwinkel-Unterbrechungsfrei-Umschaltflag VOB_FsV, das angibt, ob eine Winkeländerung innerhalb der Mehrfachwinkel- Szenenperiode unterbrechungsfrei ist oder nicht, zurückgesetzt, und der Ablauf geht über zu dem Schritt #1800.
  • Wenn der Schritt #1500 jedoch JA zurückgibt, d. h., eine unterbrechungsfreie Umschaltung auftritt, geht der Ablauf über zu dem Schritt #1700.
  • In dem Schritt #1700 wird das Mehrfachwinkel-Unterbrechungsfrei-Umschaltflag VOB_FsV gesetzt, und der Ablauf geht über zu dem Schritt #1800.
  • Wie durch das Flußdiagramm in Fig. 34 gezeigt, wird die Kodierungsparameter- Erzeugung (Schritt # 1800) daher nur begonnen, nachdem die Bearbeitungsinformation aus den obigen Flageinstellungen in den Szenariodaten St7 erfaßt ist, welche die benutzer-definierten Bearbeitungsanweisungen widerspiegeln.
  • Basierend auf den aus den obigen Flageinstellungen in den Szenariodaten St7 erfaßten, benutzer-definierten Bearbeitungsanweisungen werden Informationen zu den Kodierungs-Informationstabellen für die VOB-Satz-Einheiten und VOB-Einheiten addiert, wie in den Fig. 27 und 28 gezeigt, um den Quellenstrom zu kodieren, und die Kodierungsparameter der in Fig. 29 gezeigten VOB-Dateneinheiten werden in dem Schritt #1800 wiedergegeben. Der Ablauf geht dann über zu dem Schritt #1900 zur Audio- und Videokodierung.
  • Die Kodierungsparameter-Erzeugungsschritte (Schritt #1800) sind anhand der Fig. 35, 36, 37 und 38 unten noch detaillierter beschrieben.
  • Basierend auf den in Schritt #1800 erzeugten Kodierungsparametern werden die Videodaten und Audiodaten in dem Schritt #1900 kodiert, und der Ablauf geht über zu dem Schritt #2000.
  • Es ist anzumerken, daß die Sub-Bild-Daten normalerweise während der Video- Wiedergabe auf einer Bedarfs-Basis eingefügt werden und eine Fortsetzung in den vorausgehenden und folgenden Szenen ist daher gewöhnlich nicht erforderlich. Weiterhin sind Sub-Bild-Daten normalerweise Videoinformationen für einen Rahmen und anders als Audio- und Videodaten mit einer erweiterten Zeitbasis sind Sub-Bild- Daten gewöhnlich statisch und werden normalerweise nicht kontinuierlich dargestellt. Da die vorliegende Erfindung insbesondere eine unterbrechungsfreie und nicht unterbrechungsfreie, fortlaufende Wiedergabe betrifft, wie oben beschrieben, wird der Einfachheit halber hier auf die Beschreibung der Sub-Bild-Daten-Kodierung verzichtet.
  • Der Schritt #2000 ist der letzte Schritt in einer Schleife mit den Schritten #300 bis Schritt #2000 und bewirkt, daß diese Schleife so oft wiederholt wird, wie VOB- Sätze vorhanden sind. Diese Schleife formatiert die Programmkette VTS_PGC#i zum Enthalten der Wiedergabesequenz und anderer Wiedergabeinformationen für jedes VOB in dem Titel (Fig. 16) in dem Programmketten-Datenaufbau, verschachtelt das VOB in den Mehrfachszenenperioden und vervollständigt den für die Systemstrom-Kodierung benötigten VOB-Satz-Datenstrom und den VOB-Datenstrom. Der Ablauf geht dann über zu dem Schritt #2100.
  • In dem Schritt #2100 wird der VOB-Satz-Datenstrom vervollständigt als die Kodierungs-Informationstabelle durch Addieren der als Ergebnis der Schleife durch den Schritt #2000 erhaltenen Gesamtanzahl der VOB-Sätze VOBS_NUM zu dem VOB- Satz-Datenstrom und Setzen der Anzahl der Titel TITLE_NO, welche die Anzahl der Szenario-Wiedergabepfade in den Szenariodaten St7 bestimmt. Der Ablauf geht dann über zu dem Schritt #2200.
  • Die die VOB-(VOB#i-)Daten in den VTS-Titel-VOBS (VTSTT_VOBS) (Fig. 16) erzeugende Systemstrom-Kodierung wird in dem Schritt #2200 basierend auf dem von dem Schritt #1900 ausgegebenen, kodierten Videostrom und dem kodierten Audiostrom und den Kodierungsparametern in Fig. 29 verwirklicht. Der Ablauf geht dann über zu dem Schritt #2300.
  • In dem Schritt #2300 werden die VTS-Information VTSI, die VTSI-Verwaltungstabelle VTSI_MAT, die VTSPGC Informationstabelle VTS_PGCIT und die die in Fig. 16 gezeigte VOB-Datenwiedergabesequenz steuernde Programmketten-Information VTS_PGCI#i erzeugt und eine Formatierung zum beispielsweise Verschachteln der in den Mehrfachszenenperioden enthaltenen VOB wird verwirklicht.
  • Als nächstes wird die als Schritt #1800 in Fig. 34B gezeigte Kodierungsparameter- Erzeugungs-Unterrountine unter Verwendung der Fig. 35, 36 und 37 bei beispielhafter Verwendung des Vorgangs zum Erzeugen der Kodierungsparamter zur Mehrfachwinkel-Steuerung beschrieben.
  • Beginnend in Fig. 35 wird zuerst der Vorgang zum Erzeugen der Kodierungsparameter eines nicht unterbrechungsfreien Umschaltstromes mit Mehrfachwinkel- Steuerung beschrieben. Dieser Strom wird erzeugt, wenn der Schritt # 1500 in Fig. 34 NEIN zurückgibt und die folgenden Flags wie gezeigt gesetzt sind: VOB_Fsb = 1 oder VOB_Fsf = 1, VOB_Fp = 1, VOB_Fi = 1, VOB_Fm = 1 und VOB_FsV = 0. Der folgende Vorgang erzeugt die in Fig. 27 und Fig. 28 gezeigten Kodierungs-Informationstabellen und die in Fig. 29 gezeigten Kodierungsparameter.
  • In dem Schritt #1812 wird die in den Szenariodaten St7 enthaltene Szenario- Wiedergabesequenz (Pfad) extrahiert, die VOB-Satz-Nummer VOBS_NO wird gesetzt, und die VOB-Nummer VOB_NO wird für eines oder mehrere VOB in dem VOB-Satz gesetzt.
  • In dem Schritt #1814 wird die maximale Bitgeschwindigkeit ILV_BR des verschachtelten VOB aus den Szenariodaten St7 extrahiert und die maximale Videokodierungs-Bitgeschwindigkeit V_MRATE aus den Kodierungsparametern wird basierend auf der Verschachtelungsflag-VOB_Fi-Einstellung (= 1) gesetzt.
  • In dem Schritt #1816 wird die minimale Verschachtelungseinheit-Darstellungszeit ILVU_MT aus den Szenariodaten St7 extrahiert.
  • In dem Schritt #1818 werden die Videokodierungs-GOP-Aufbau-GOPST-Werte N = 15 und M = 3 gesetzt und das GOP-Aufbau-Fixierungsflag GOP_Fxflag wird gesetzt (= 1), basierend auf der Mehrfachszenen-Flag VOB_Fp-Einstellung (= 1).
  • Der Schritt #1820 ist die gemeinsame VOB-Daten-Einstellroutine, welche unten anhand des Flußdiagramms in Fig. 36 beschrieben wird. Die gemeinsame VOB- Daten-Einstellroutine erzeugt die in den Fig. 27 und 28 gezeigten Kodierungs- Informationstabellen und die in Fig. 29 gezeigten Kodierungsparameter.
  • In dem Schritt #1822 werden der Videomaterial-Anfangszeitpunkt VOB_VST und der Videomaterial-Endzeitpunkt VOB_VEND für jedes VOB extrahiert, und die Videokodierungs-Anfangszeit V_STTM und die Videokodierungs-Endzeit V_ENDTM werden als Video-Kodierungsparameter verwendet.
  • In dem Schritt #1824 wird die Audiomaterial-Anfangszeit VOB_AST jedes VOB aus den Szenariodaten St7 extrahiert und die Audiokodierungs-Anfangszeit A_STTM wird als Audio-Kodierungsparameter eingestellt.
  • In dem Schritt #1826 wird die Audiomaterial-Endzeit VOB_AEND für jedes VOB aus den Szenariodaten St7 und zu einem Zeitpunkt, der die VOB_AEND-Zeit nicht überschreitet, extrahiert. Diese in einer Audio-Zugriffeinheit (AAU) extrahierte Zeit wird als die Audiokodierungs-Endzeit A_ENDTM gesetzt, welche ein Audio-Kodierungs-parameter ist. Es ist anzumerken, daß die Audio-Zugriffseinheit AAU durch das Audio-Kodierungsverfahren bestimmt wird.
  • In dem Schritt #1828 wird die aus der Differenz zwischen der Videokodierungs- Anfangszeit V_STTM und der Audiokodierungs-Anfangszeit A_STTM erhaltene Audio-Anfangslücke A_STGAP als ein System-Kodierungsparameter definiert.
  • In dem Schritt # 1830 wird die aus der Differenz zwischen der Videokodierungs- Endzeit V_ENDTM und der Audiokodierungs-Endzeit A_ENDTM erhaltene Audio- Endlücke A_ENDGAP als ein System-Kodierungsparameter definiert.
  • In dem Schritt #1832 wird die Videokodierungs-Bitgeschwindigkeit V_BR aus den Szenariodaten St7 extrahiert und die Videokodierungs-Bitgeschwindigkeit V_RATE, welche die mittlere Bitgeschwindigkeit der Videokodierung ist, wird als Video- Kodierungsparameter gesetzt.
  • In dem Schritt #1834 wir die Audiokodierungs-Bitgeschwindigkeit A_BR aus den Szenariodaten St7 extrahiert und die Audiokodierungs-Bitgeschwindigkeit A_RATE wird als Audio-Kodierungsparameter gesetzt.
  • In dem Schritt #1836 wird der Videomaterial-VOB_V_KIND aus den Szenariodaten St7 extrahiert. Wenn das Material ein Filmtyp ist, d. h., ein in ein Fernsehrundfunk- Format konvertierter Film (sog. Tele-Cine-Konversion) wird eine umgekehrte Tele- Cine-Konversion für den Video-Kodierungsmodus V_ENCMD gesetzt und als ein Video-Kodierungsparameter definiert.
  • In dem Schritt #1838 wird das Audio-Kodierungsverfahren VOB_A_KIND aus den Szenariodaten St7 extrahiert und das Kodierungsverfahren wird als Audio-Kodie rungsverfahren A_ENCMD gesetzt und als ein Audio-Kodierungsparameter eingestellt.
  • In dem Schritt #1840 setzen die Anfangs-Video-Kodierungsdaten V_INTST den Anfangswert des VBV-Puffers auf einen geringeren Wert als den durch den letzten Video-Kodierungsdaten V_ENDST gesetzten VBV-Puffer-Endwert, definiert als ein Video-Kodierungsparameter.
  • In dem Schritt #1842 wird die VOB-Nummer VOB_NO der vorausgehenden Verbindung auf die vorausgehende VOB-Nummer B_VOB_NO basierend auf der Einstellung (= 1) des Unterbrechungsfrei-Verbindungsflag des vorausgehenden VOB_Fsb gesetzt und als ein Kodierungsparameter eingestellt.
  • In dem Schritt #1844 wird die VOB-Nummer VOB_NO der folgenden Verbindung basierend auf der Einstellung (= 1) des Unterbrechungsfrei-Verbindungsflag des folgenden VOB_Fsf auf die folgende VOB_Nummer F_VOB_NO eingestellt und als ein System-Kodierungsparameter gesetzt.
  • Die Kodierungs-Informationstabelle und die Kodierungsparameter sind somit für einen Mehrfachwinkel-VOB-Satz mit ermöglichter, nicht unterbrechungsfreier Mehrfachwinkel-Umschaltsteuerung erzeugt.
  • Der Vorgang zum Erzeugen der Kodierungsparameter eines unterbrechungsfreien Umschaltstromes mit Mehrfachwinkel-Steuerung ist unten anhand von Fig. 37 beschrieben. Dieser Strom wird erzeugt, wenn der Schritt #1500 in Fig. 34 JA zurückgibt und die folgenden Flags gesetzt sind, wie gezeigt: VOB_Fsb = 1 oder VOB_Fsf = 1, VOB_Fp = 1, VOB_Fi = 1, VOB_Em = 1 und VOB_FsV = 1. Der folgende Vorgang erzeugt die in Fig. 27 und Fig. 28 gezeigten Kodierungs-Informationstabellen und die in Fig. 29 gezeigten Kodierungsparameter.
  • In dem Schritt #1850 wird die in den Szenariodaten St7 enthaltene Szenario- Wiedergabesequenz (Pfad) extrahiert, die VOB-Satz-Nummer VOBS_NO wird gesetzt und die VOB-Nummer VOB_NO wird für eines oder mehrere VOB in den VOB-Satz gesetzt.
  • In dem Schritt #1852 wird die maximale Bitgeschwindigkeit ILV_BR des verschachtelten VOB aus den Szenariodaten St7 extrahiert, und die maximale Videokodierungs-Bitgeschwindigkeit V_MRATE aus den Kodierungsparametern wird basierend auf der Verschachtelungs-Flag-VOB_Fi-Einstellung (= 1) gesetzt.
  • In dem Schritt #1854 wird die minimale Verschachtelungseinheiten-Darstellungszeit ILVU_MT aus den Szenariodaten St7 extrahiert.
  • In dem Schritt #1856 werden die Videokodierungs-GOP-Aufbau-GOPST-Werte N = 15 und M = 3 gesetzt, und das GOP-Aufbau-Fixierungsflag GOP_Fxflag wird gesetzt ( = 1), basierend auf der Mehrfachszenen-Flag-VOB_Fp-Einstellung (= 1).
  • In dem Schritt #1858 wird die Videokodierungs-GOP GOPST auf "geschlossene GOP" basierend auf der Mehrfachwinkel-Unterbrechungsfrei-Umschaltflag VOB_FsV-Einstellung (= 1) gesetzt, und die Video-Kodierungsparameter sind somit definiert.
  • Der Schritt #1860 ist die gemeinsame VOB-Daten-Einstellroutine, welche ausgeführt ist, wie anhand des Flußdiagramms in Fig. 35 beschrieben. Auf eine weitere Beschreibung davon wird daher hier verzichtet.
  • Die Kodierungsparameter eines Unterbrechungsfrei-Umschaltstromes mit Mehrfachwinkel-Steuerung werden somit für einen VOB-Satz mit Mehrfachwinkel- Steuerung definiert, wie oben beschrieben.
  • Der Vorgang zum Erzeugen der Kodierungsparameter für einen Systemstrom, bei welchem eine Eltern-Sperr-Steuerung implementiert ist, wird unten anhand von Fig. 38 beschrieben. Dieser Strom wird erzeugt, wenn der Schritt #1200 in Fig. 34 NEIN zurückgibt und der Schritt #1304 JA zurückgibt, d. h., die folgenden Flags sind gesetzt, wie gezeigt: VOB_Fsb = 1 oder VOB_Fsf = 1, VOB_Fp = 1, VOB_Fi = 1, VOB_Fm = 0. Der folgende Vorgang erzeugt die in Fig. 27 und Fig. 28 gezeigten Kodierungs-Informationstabellen und die in Fig. 29 gezeigten Kodierungsparameter.
  • In dem Schritt #1870 wird die in den Szenariodaten St7 enthaltene Szenario- Wiedergabesequenz (Pfad) extrahiert, die VOB-Satz-Nummer VOBS_NO wird gesetzt und die VOB-Nummer VOB_NO wird für eines oder mehrere VOB in dem VOB-Satz gesetzt.
  • In dem Schritt #1872 wird die maximale Bitgeschwindigkeit ILV_BR des verschachtelten VOB aus den Szenariodaten St7 extrahiert und die maximale Videokodie rungs-Bitgeschwindigkeit V_MRATE aus den Kodierungsparametern wird basierend auf der Verschachtelungsflag-VOB_Fi-Einstellung (= 1) gesetzt.
  • In dem Schritt #1872 wird die Anzahl verschachtelter VOB-Aufteilungen ILV_DIV aus den Szenariodaten St7 extrahiert.
  • Der Schritt #1876 ist die gemeinsame VOB-Daten-Einstellroutine, welche ausgeführt ist, wie anhand des Flußdiagramms in Fig. 35 beschrieben. Auf eine weitere Beschreibung davon wird daher hier verzichtet.
  • Die Kodierungsparameter eines Systemstromes, bei welchem eine Eltern-Sperr- Steuerung implementiert ist, werden somit für einen VOB-Satz mit ermöglichter Mehrfachwinkel-Selektionssteuerung definiert, wie oben beschrieben.
  • Der Vorgang zum Erzeugen der Kodierungsparameter für einen Systemstrom mit einer einzelnen Szene ist unten anhand von Fig. 32 beschrieben. Der Strom wird erzeugt, wenn der Schritt #900 in Fig. 34 NEIN zurückgibt, d. h., wenn VOB_Fp = 0 ist. Der folgende Vorgang erzeugt die in Fig. 27 und Fig. 28 gezeigten Kodierungs- Informationstabellen und die in Fig. 29 gezeigten Kodierungsparameter.
  • In dem Schritt #1880 wird die in den Szenariodaten St7 enthaltene Szenario- Wiedergabesequenz (Pfad) extrahiert, die VOB-Satz-Nummer VOBS_NO wird gesetzt und die VOB-Nummer VOB_NO wird für eines oder mehrere VOB in dem VOB-Satz gesetzt.
  • In dem Schritt #1882 wird die maximale Bitgeschwindigkeit ILV_BR des verschachtelten VOB aus den Szenariodaten St7 extrahiert und die maximale Videokodierungs-Bitgeschwindigkeit V_MRATE aus den Kodierungsparametern wird basierend auf der Verschachtelungsflag-VOB_Fi-Einstellung (= 1) gesetzt.
  • Der Schritt #1884 ist die gemeinsame VOB-Daten-Einstellroutine, welche ausgeführt ist, wie anhand des Flußdiagramms in Fig. 35 beschrieben. Auf eine weitere Beschreibung davon wird daher hier verzichtet.
  • Diese Flußdiagramme zum Bestimmen der Kodierungs-Informationstabelle und der Kodierungsparameter erzeugen somit die Parameter für DVD-Video-, Audio- und Systemstrom-Kodierung durch den DVD-Formatierer.
  • Dekodierer-Flußdiagramme Disk-zu-Strom-Puffer-Übertragungsablauf
  • Die von der Dekodierungs-Systemsteuerung 2300 basierend auf den Szenario- Selektionsdaten St51 erzeugte Dekodierungs-Informationstabelle wird unten anhand der Fig. 58 und 59 beschrieben. Die Dekodierungs-Informationstabelle umfaßt die in Fig. 58 gezeigte Dekodierungs-Systemtabelle und die in Fig. 59 gezeigte Dekodierungstabelle.
  • Wie in Fig. 58 gezeigt, umfaßt die Dekodierungs-Systemtabelle ein Szenario- Informationsregister und ein Zellen-Informationsregister. Das Szenario-Informationsregister zeichnet die von dem Benutzer selektierte und aus den Szenario-Selektionsdaten St51 extrahierte Titelnummer und andere Szenario-Wiedergabeinformationen auf. Das Zellen-Informationsregister extrahiert und zeichnet die zum Wiedergeben der die Programmkette PGC bildenden Zellen erforderlichen Informationen auf, basierend auf der in dem Szenario-Informationsregister extrahierten benutzerdefinierten Szenario-Information.
  • Insbesondere enthält das Szenario-Informationsregister mehrere Unter-Register, d. h., die Winkelnummer ANGLE_NO_reg, die VTS-Nummer VTS_NO_reg, die PGC- Nummer VTS_PGCI_NO_reg, die Audio-ID AUDIO_ID_reg, die Sub-Bild-ID SP_ID_reg und den Systemtaktreferenz-SCR-Puffer SCR-buffer.
  • Die Winkelnummer ANGLE_NO_reg speichert, welcher Winkel wiedergegeben wird, wenn mehrere Winkel in der Wiedergabe-Programmkette PGC vorhanden sind. Die VTS-Nummer VTS_NO_reg zeichnet die Nummer des nächsten VTS auf, der aus den mehreren VTS auf der Disk wiedergegeben wird.
  • Die PGC-Nummer VTS_PGCI_NO_reg zeichnet auf, welche der in dem Video- Titelsatz VTS vorhandenen mehreren Programmketten PGC für eine Eltern-Sperr- Steuerung oder andere Anwendungen wiederzugeben ist.
  • Die Audio ID AUDIO_ID_reg zeichnet auf, welcher der mehreren Audioströme in dem VTS wiederzugeben ist.
  • Die Sub-Bild-ID SP_ID_reg zeichnet auf, welcher der mehreren Sub-Bild-Ströme wiederzugeben ist, wenn mehrere Sub-Bild-Ströme in dem VTS vorhanden sind.
  • Der Systemtaktreferenz-SCR-Puffer SCR buffer ist der Puffer zum vorübergehenden Speichern der in dem Paket-Header aufgezeichneten Systemtaktreferenz SCR, wie in Fig. 19 gezeigt. Wie unter Verwendung von Fig. 26 beschrieben, wird diese vorübergehend gespeicherte Systemtaktreferenz SCR als Bitstrom-Steuerungsdaten St63 zu der Dekodierungs-Systemsteuerung 2300 ausgegeben.
  • Das Zellen-Informationsregister enthält die folgenden Unter-Register: den Zellenblockmodus CBM_reg, den Zellenblocktyp CBT_reg, das Unterbrechungsfrei-Wiedergabeflag SPF_reg, das Verschachtelungs-Zuordnungsflag IAF_reg, das STC- Rücksetzflag STCDF, das Unterbrechungsfrei-Winkeländerungsflag SACF_reg, die VOBU-Anfangsadresse der ersten Zelle C_FVOBU_SA_reg und die VOBU-Anfangsadresse der letzten Zelle C_LVOBU_SA_reg.
  • Der Zellenblockmodus CBM_reg speichert einen Wert, der angibt, ob mehrere Zellen einen funktionalen Block bilden. Wenn nicht mehrere Zellen in einem funktionalen Block sind, speichert CBM_reg N_BLOCK. Wenn mehrere Zellen einen funktionalen Block bilden, wird der Wert F_CELL als der CBM_reg-Wert der ersten Zelle in dem Block gespeichert, L_CELL wird als der CBM_reg-Wert der letzten Zelle in dem Block gespeichert, und BLOCK wird als CBM_reg-Wert sämtlicher Zellen zwischen der ersten und letzten Zelle in dem Block gespeichert.
  • Der Zellenblocktyp CBT_reg speichert einen Wert, der den Typ des durch den Zellenblockmodus CBM_reg angegebenen Blockes bestimmt. Wenn der Zellenblock ein Mehrfachwinkel-Block ist, wird A_BLOCK gespeichert; wenn nicht, wird N_BLOCK gespeichert.
  • Das Unterbrechungsfrei-Wiedergabeflag SPF_reg speichert einen Wert, der bestimmt, ob diese Zelle unterbrechungsfrei mit der davor wiedergegebenen Zelle oder dem Zellenblock verbunden ist. Wenn eine unterbrechungsfreie Verbindung angegeben wird, wird SML gespeichert; wenn eine unterbrechungsfreie Verbindung nicht angegeben wird, wird NSML gespeichert.
  • Das Verschachtelungs-Zuordnungsflag IAF_reg speichert einen Wert, der angibt, ob die Zelle in einem fortlaufenden oder verschachtelten Block vorhanden ist. Wenn die Zelle Teil eines verschachtelten Blockes ist, wird ILVB gespeichert; anderenfalls wird N_ILVB gespeichert.
  • Das STC-Rücksetzflag STCDF bestimmt, ob der zur Synchronisierung verwendete Systemzeittakt STC zurückgesetzt werden muß, wenn die Zelle wiedergegeben wird; wenn ein Zurücksetzen des Systemzeittaktes STC erforderlich ist, wird STC_RESET gespeichert; wenn ein Zurücksetzen nicht erforderlich ist, wird STC_NRESET gespeichert.
  • Das Unterbrechungsfrei-Winkeländerungsflag SACF_reg speichert einen Wert, der angibt, ob eine Zelle in einer Mehrfachwinkelperiode unterbrechungsfrei bei einer Winkeländerung verbunden werden soll. Wenn die Winkeländerung unterbrechungsfrei ist, wird das Unterbrechungsfrei-Winkeländerungsflag SACF auf SML gesetzt; anderenfalls wird es auf NSML gesetzt.
  • Die VOBU-Anfangsadresse der ersten Zelle C_FVOBU_SA_reg speichert die VOBU- Anfangsadresse der ersten Zelle in einem Block. Der Wert dieser Adresse wird ausgedrückt als die Distanz von dem Logiksektor der ersten Zelle in dem VTS-Titel- VOBS (VTSTT_VOBS), gemessen in und ausgedrückt (gespeichert) als die Anzahl von Sektoren.
  • Die VOBU-Anfangsadresse der letzten Zelle C_LVOBU_SA_reg speichert die VOBU- Anfangsadresse der letzten Zelle in dem Block. Der Wert dieser Adresse wird ebenfalls ausgedrückt als die Distanz von dem Logiksektor der ersten Zelle in dem. VTS-Titel-VOBS (VTSTT_VOBS), gemessen in und ausgedrückt (gespeichert) als die Anzahl von Sektoren.
  • Die in Fig. 59 gezeigte Dekodierungstabelle wird unten beschrieben. Wie in Fig. 59 gezeigt, umfaßt die Dekodierungstabelle die folgenden Register: Informationsregister zur nicht unterbrechunsfreien Mehrfachwinkel-Steuerung, Informationsregister zur unterbrechungsfreien Mehrfachwinkel-Steuerung, ein VOBU-Informationsregister und Informationsregister zur unterbrechungsfreien Wiedergabe.
  • Die Informationsregister zur nichtunterbrechungsfreien Mehrfachwinkel-Steuerung umfassen Unter-Register NSML_AGL_C1_DSTA_reg - NSML_AGL_C9_DSTA_reg.
  • NSML_AGL_C1_DSTA_reg-NSML_AGL_C9_DSTA_reg zeichnen die NMSL_AGL_- C1_DSTA - NMSL_AGL_C9-DSTA-Werte in dem in Fig. 20 gezeigten PCI-Paket auf.
  • Die Informationsregister zur unterbrechungsfreien Mehrfachwinkel-Steuerung umfassen Unter-Register SML_AGL_C1_DSTA_reg - SML_AGL_C9_DSTA_reg.
  • SML_AGL_C1_DSTA_reg - SML_AGL_C9_DSTA_reg speichern die SML_AGL_C1_ DSTA - SML_AGL_C9_DSTA-Werte in dem in Fig. 20 gezeigten DSI-Paket.
  • Das VOBU-Informationsregister speichert die Endpaket-Adresse VOBU_EA in dem in Fig. 20 gezeigten DSI-Paket.
  • Die Informationsregister zur unterbrechungsfreien Wiedergabe umfassen die folgenden Unter-Register: ein Verschachtelungseinheiten-Flag ILVU_flag_reg, ein Einheiten-ENDE-Flag UNIT_END_flag_reg, eine Verschachtelungseinheiten-Endadresse ILVU_EA_reg, eine Anfangsadresse der nächsten verschachtelten Einheit NT_ILVU_SA_reg, die Darstellungs-Anfangszeit des ersten Videorahmens in dem VOB (Anfangs-Videorahmen-Darstellungs-Anfangszeit) VOB_V_SPTM_reg, die Darstellungs-Endzeit des letzten Videorahmens in dem VOB (letzte Videorahmen- Darstellungs-Endzeit) VOB_V_EPTM_reg, die Audiowiedergabe-Anhaltezeit 1 VOB_A_STP_PTM1_reg, die Audiowiedergabe-Anhaltezeit 2 VOB_A_STP_- PTM2_reg, die Audiowiedergabe-Anhalteperiode 1 VOB_A_GAP_LEN1_reg und die Audiowiedergabe-Anhalteperiode 2 VOB_A_GAP_LEN2_reg.
  • Das Verschachtelungseinheiten-Flag ILVU_flag_reg speichert den Wert, der angibt, ob sich die Video-Objekteinheit VOBU in einem verschachtelten Block befindet und speichert ILVU wenn dies der Fall ist und N_ILVU, wenn nicht.
  • Das Einheiten-ENDE-Flag UNIT_END_flag_reg speichert den Wert, der angibt, ob die Video-Objekteinheit VOBU die letzte VOBU in der verschachtelten Einheit ILVU ist. Da die verschachtelte Einheit ILVU die Dateneinheit zum kontinuierlichen Lesen ist, speichert das UNIT_END_flag_reg_END, wenn die gegenwärtig gelesene VOBU die letzte VOBU in der verschachtelten Einheit ILVU ist, und speichert anderenfalls N_END.
  • Die Verschachtelungseinheiten-Endadresse ILVU_EA_reg speichert die Adresse des letzten Paketes in der ILVU, zu welcher die VOBU gehört, wenn die VOBU in einem verschachtelten Block ist. Diese Adresse wird ausgedrückt als die Anzahl von Sektoren von dem Navigationspaket NV der VOBU an.
  • Die nächste Verschachtelungseinheiten-Anfangsadresse NT_ILVU_SA_reg speichert die Anfangsadresse der nächsten verschachtelten Einheit ILVU, wenn die VOBU in einem verschachtelten Block ist. Diese Adresse wird ebenfalls als die Anzahl von Sektoren von dem Navigationspaket NV der VOBU ausgedrückt.
  • Das Darstellungs-Anfangszeit-Register des ersten Videorahmens VOB_V_SPTM_reg speichert den Zeitpunkt, zu welchem die Darstellung des ersten Videorahmens in dem VOB beginnt.
  • Das Darstellungs-Endzeit-Register des letzten Videorahmens VOB_V_EPTM_reg speichert den Zeitpunkt, zum welchem die Darstellung des letzten Videorahmens in dem VOB endet.
  • Die Audiowiedergabe-Anhaltezeit 1 VOB_A_STP_PTM1_reg speichert den Zeitpunkt, zu welchem der Ton anzuhalten ist, um eine Resynchronisierung zu ermöglichen, und die Audiowiedergabe-Anhalteperiode 1 VOB_A_GAP_LEN_1_reg speichert die Länge dieser Anhalteperiode.
  • Die Audiowiedergabe-Anhaltezeit 2 VOB_A_STP_PTM2_reg und die Audiowiedergabe-Anhalteperiode 2 VOB_A_GAP_LEN2_reg speichern die gleichen Werte.
  • Die Wirkungsweise des erfindungsgemäßen DVD-Dekodierers DCD, wie in Fig. 26 gezeigt, wird als nächstes unten anhand des Flußdiagramms in Fig. 60 beschrieben.
  • In dem Schritt #310202 wird zuerst bestimmt, ob eine Disk eingelegt wurde. Wenn dies der Fall ist, geht der Ablauf über zu dem Schritt #310204.
  • In dem Schritt #310204 wird der Volumen-Dateiaufbau VFS (Fig. 21) gelesen, und der Ablauf geht über zu dem Schritt #310206.
  • In dem Schritt #310206 wird die Videoverwaltung VMG (Fig. 21) gelesen, und der wiederzugebende Video-Titelsatz VTS wird extrahiert. Der Ablauf geht dann über zu dem Schritt #310208.
  • In dem Schritt #310208 wird die Video-Titelsatz-Menü-Adressinformation VTSM_C_ADT aus der VTS-Information VTSI extrahiert, und der Ablauf geht über zu dem Schritt # 310210.
  • In dem Schritt #310210 wird das Video-Titelsatz-Menü VTSM_VOBS basierend auf der Video-Titelsatz-Menü-Adressinformation VTSM_C_ADT von der Diskgelesen, und das Titel-Selektionsmenü wird dargestellt.
  • Der Benutzer ist somit in der Lage, den gewünschten Titel aus diesem Menü in dem Schritt #310212 auszuwählen. Wenn die Titel fortlaufende Titel ohne benutzerselektierbaren Inhalt und Titel mit Audionummern, Sub-Bild-Nummern oder Mehrfachwinkel-Szeneninhalt beinhalten, muß der Benutzer ebenfalls die gewünschte Winkelnummer eingeben. Sobald die Benutzerauswahl vollständig ist, geht der Ablauf über zu dem Schritt #310214.
  • In dem Schritt #310214 wird der VTS_PGCI #i Programmketten-(PGC)Datenblock entsprechend der von dem Benutzer selektierten Titelnummer aus der VTSPGC- Informationstabelle VTS_PGCIT extrahiert, und der Ablauf geht über zu dem Schritt #310216.
  • Die Wiedergabe der Programmkette PGC beginnt dann in dem Schritt #310216. Wenn die Programmketten-PGC-Wiedergabe beendet ist, endet der Dekodierungsvorgang. Wenn ein getrennter Titel danach wiederzugeben ist, wie durch Überwachen der Tastatureingaben in den Szenario-Selektierer bestimmt, wird erneut das Titelmenü dargestellt (Schritt #310210).
  • Die Programmkettenwiedergabe in Schritt #310216 oben wird detaillierter unten anhand von Fig. 61 beschrieben. Die Programmketten-PGC-Wiedergaberoutine besteht aus den Schritten #31030, #31032, #31034 und #31035, wie gezeigt.
  • In dem Schritt #31030 wird die in Fig. 58 gezeigte Dekodierungs-Systemtabelle definiert. Die Winkelnummer ANGLE_NO_reg, VTS-Nummer VTS_NO_reg, die PGC- Nummer VTS_PGCI_NO_reg, die Audio-ID AUDIO_ID_reg und die Sub-Bild-ID SP_ID_reg werden entsprechend den von dem Benutzer unter Verwendung der Szenario-Auswählvorrichtung 2100 vorgenommenen Auswahlen gesetzt.
  • Sobald die wiederzugebende PGC bestimmt ist, werden die entsprechenden Zelleninformationen (PGC-Informationseinträge C_PBI #j) extrahiert, und das Zellen- Informationsregister wird definiert. Die darin definierten Unter-Register sind der Zellenblockmodus CBM_reg, der Zellenblocktyp CBT_reg, das Unterbrechungsfrei- Wiedergabeflag SPF_reg, das Verschachtelungs-Zuordnungsflag IAF_reg, das STC- Rücksetzflag STCDF, das Unterbrechungsfrei-Winkeländerungsflag SACF_reg, die VOBU-Anfangsadresse der ersten Zelle C_FVOBU_SA_reg und die VOBU-Anfangsadresse der letzten Zelle C_LVOBU_SA_reg.
  • Sobald die Dekodierungs-Systemtabelle definiert ist, werden der Vorgang zum Übertragen von Daten zu dem Strompuffer (Schritt #31032) und der Vorgang zum Dekodieren der Daten in dem Strompuffer (Schritt #31034) parallel aktiviert.
  • Der Vorgang zum Übertragen von Daten zu dem Strompuffer (Schritt #31032) ist der Vorgang zum Übertragen von Daten von dem Aufzeichnungsmedium M zu dem Strompuffer 2400. Dies ist daher der Vorgang zum Lesen der erforderlichen Daten von dem Aufzeichnungsmedium M und Eingeben der Daten in den Strompuffer 2400 entsprechend der benutzer-ausgewählten Titelinformation und der Wiedergabe-Steuerungsinformation (Navigationspakete NV), die in dem Strom geschrieben sind.
  • Die als Schritt #31034 gezeigte Routine ist der Vorgang zum Dekodieren der in dem Strompuffer 2400 (Fig. 26) gespeicherten Daten und Ausgeben der dekodierten Daten zu dem Videodaten-Ausgangsanschluß 3600 und Audiodaten-Ausgabeanschluß 3700. Somit ist es der Vorgang zum Dekodieren und Wiedergeben der in dem Strompuffer 2400 gespeicherten Daten.
  • Es ist anzumerken, daß Schritt #31032 und Schritt #31034 parallel ausgeführt werden.
  • Die Verarbeitungseinheit in Schritt #31032 ist die Zelle, und wenn die Verarbeitung einer Zelle beendet ist, wird in Schritt #31035 bestimmt, ob die vollständige Programmkette PGC verarbeitet wurde. Wenn die Verarbeitung der vollständigen Programmkette PGC nicht beendet ist, wird die Dekodierungs-Systemtabelle für die nächste Zelle in dem Schritt #31030 definiert. Diese Schleife von dem Schritt #31030 bis zum Schritt #31035 wird wiederholt, bis die gesamte Programmkette PGC verarbeitet ist.
  • Der Strompuffer-Datenübertragungsvorgang in Schritt #31032 wird detaillierter unten anhand von Fig. 62 beschrieben. Der Strompuffer-Datenübertragungsvorgang (Schritt #31032) umfaßt die Schritte #31040, #31042, #31044, #31046 und #31048, die in der Figur gezeigt sind.
  • In dem Schritt #31040 wird bestimmt, ob die Zelle eine Mehrfachwinkel-Zelle ist. Wenn nicht, geht der Ablauf über zu dem Schritt #31044.
  • In dem Schritt #31044 wird der Nicht-Mehrfachwinkel-Zellen-Dekodierungsvorgang ausgeführt.
  • Wenn der Schritt #31040 jedoch JA zurückgibt, da die Zelle eine Mehrfachwinkel- Zelle ist, geht der Ablauf über zu dem Schritt #31042, wo das Unterbrechungsfrei- Winkeländerungsflag SACF bewertet wird, um zu bestimmen, ob eine unterbrechungsfreie Winkelwiedergabe festgelegt ist.
  • Wenn eine unterbrechungsfreie Winkelwiedergabe festgelegt ist, wird der Unterbrechungsfrei-Mehrfachwinkel-Dekodierungsvorgang in Schritt #31046 ausgeführt. Wenn eine unterbrechungsfreie Winkelwiedergabe nicht festgelegt ist, wird der nicht unterbrechungsfreie Mehrfachwinkel-Dekodierungsvorgang in dem Schritt #31048 ausgeführt.
  • Der Nicht-Mehrfachwinkel-Zellen-Dekodierungsvorgang (Schritt #31044, Fig. 62) wird weiter unten anhand von Fig. 63 beschrieben. Es ist anzumerken, daß der Nicht-Mehrfachwinkel-Zellen-Dekodierungsvorgang (Schritt #31044) die Schritte #31050, #31052 und #31054 umfaßt.
  • Der erste Schritt #31050 bewertet das Verschachtelungs-Zuordnungsflag IAF_reg zum Bestimmen, ob sich die Zelle in einem verschachtelten Block befindet. Wenn dies der Fall ist, wird der Nicht-Mehrfachwinkel-Verschachtelungsblockvorgang in dem Schritt #31052 ausgeführt.
  • Der Nicht-Mehrfachwinkel-Verschachtelungsblockvorgang (Schritt #31052) verarbeitet Szenen-Verzweigung und Verbindung, wobei unterbrechungsfreie Verbindungen in zum Beispiel einer Mehrfachszenenperiode festgelegt werden.
  • Wenn die Zelle sich jedoch nicht in einem verschachtelten Block befindet, wird der fortlaufende Nicht-Mehrfachwinkel-Blockvorgang in dem Schritt #31054 ausgeführt. Es ist anzumerken, daß der Vorgang in dem Schritt #31054 der Vorgang ist, der ausgeführt wird, wenn keine Szenen-Verzweigung oder -Verbindung vorhanden ist.
  • Der Nicht-Mehrfachwinkel-Verschachtelungsvorgang (Schritt #31052, Fig. 63) wird weiter unten anhand von Fig. 64 beschrieben.
  • In dem Schritt #31060 springt der Lesekopf 2006 zu der VOBU-Anfangsadresse der ersten Zelle C_FVOBU_SA, gelesen aus dem C_FVOBU_SA_reg-Register.
  • Insbesondere werden die in der Dekodierungs-Systemsteuerung 2300 (Fig. 26) gespeicherten Adressdaten C_FVOBU_SA_reg als Bitstrom-Wiedergabesteuerungs signal St53 in die Wiedergabesteuerung 2002 eingegeben. Die Wiedergabesteuerung 2002 steuert somit die Aufzeichnungsmedium-Antriebseinheit 2004 und den Signalprozessor 2008, um den Lesekopf 2006 zu der bestimmten Adresse zu bewegen, Daten werden gelesen, eine Fehlerkorrektur-Code-ECC- und weitere Signal-Verarbeitung wird durch den Signalprozessor 2008 ausgeführt, und die Zellen-Anfangs-VOBU-Daten werden als wiedergegebener Bitstrom St61 zu dem Strompuffer 2400 ausgegeben. Der Ablauf geht dann über zu dem Schritt #31062.
  • In dem Schritt #31062 werden die DSI-Paketdaten in dem Navigationspaket NV (Fig. 20) in dem Strompuffer 2400 extrahiert, die Dekodierungstabelle wird definiert, und der Ablauf geht über zu dem Schritt #31064, Die in der Dekodierungstabelle gesetzten Register sind das ILVU_EA_reg, das NT_ILVU_SA_reg, das VOB_V_SPTM_reg, das VOB_V_EPTM_reg, das VOB_A_STP_PTM1-reg, das VOB_A_STP_PTM2-reg, das VOB_A_GAP_LEN1_reg und das VOB_A_GAP_- LEN2_reg.
  • In dem Schritt #31064 werden die Daten von der VOBU-Anfangsadresse der ersten Zelle C_FVOBU_SA_reg zu der ILVU-Endpaketadresse ILVU_EA_reg übertragen, d. h., die Daten für eine verschachtelte Einheit ILVU werden zu dem Strompuffer 2400 übertragen. Der Ablauf geht dann über zu dem Schritt #31066.
  • Insbesondere werden die in der Dekodierungs-Systemsteuerung 2300 (Fig. 26) gespeicherten Adressdaten ILVU_EA_reg zu der Wiedergabesteuerung 2002 geliefert. Die Wiedergabesteuerung 2002 steuert somit die Aufzeichnungsmedium- Antriebseinheit 2004 und den Signalprozessor 2008 zum Lesen der Daten in die ILVU_EA_reg-Adresse, und nachdem eine Fehlerkorrektur-Code-ECC- und weitere Signalverarbeitung durch den Signalprozessor 2008 ausgeführt ist, werden die Daten für die erste ILVU in der Zelle als wiedergegebener Bitstrom St61 zu dem Strompuffer 2400 ausgegeben. Somit ist es möglich, die Daten für eine fortlaufende verschachtelte Einheit ILVU auf dem Aufzeichnungsmedium M zu dem Strompuffer 2400 auszugeben.
  • In dem Schritt #31066 wird bestimmt, ob sämtliche verschachtelten Einheiten in dem verschachtelten Block gelesen und übertragen wurden. Wenn die verarbeitete, verschachtelte Einheit ILVU die letzte ILVU in dem verschachtelten Block ist, wird das Ende anzeigende "Ox7FFFFFFF" in der Anfangsadresse der nächsten ILVU NT_ILVU_SA_reg als nächste Leseadresse gesetzt. Wenn somit sämtliche verschachtelten Einheiten in dem verschachtelten Block verarbeitet wurden, geht der Ablauf über zu dem Schritt #31068.
  • In dem Schritt #31068 springt der Lesekopf 2006 erneut zu der Adresse NT_ILVU_SA_reg der nächsten wiederzugebenden Verschachtelungseinheit, und der Ablauf geht zurück zu dem Schritt #31062. Es ist anzumerken, daß dieser Sprung ebenfalls verwirklicht wird, wie oben beschrieben, und die Schleife von Schritt #31062 bis Schritt #31068 wird wiederholt.
  • Wenn der Schritt #31066 jedoch JA zurückgibt, d. h., sämtliche verschachtelten Einheiten ILVU in dem verschachtelten Block übertragen wurden, endet der Schritt #31052.
  • Der Nicht-Mehrfachwinkel-Verschachtelungsblock-Vorgang (Schritt #31052) überträgt somit die Daten einer Zelle zu dem Strompuffer 2400.
  • Der fortlaufende Nicht-Mehrfachwinkel-Blockvorgng wird in dem Schritt #31054, Fig. 63, ausgeführt und weiter unten anhand von Fig. 65 beschrieben.
  • In dem Schritt #31070 springt der Lesekopf 2006 zu der aus dem C_FVOBU_SA_reg-Register gelesenen VOBU-Anfangsadresse der ersten Zelle C_FVOBU_SA. Dieser Sprung wird ebenfalls verwirklicht, wie oben beschrieben, und die Schleife vom Schritt #31072 zum Schritt #31076 wird ausgelöst.
  • In dem Schritt #31072 werden die DSI-Paketdaten in dem Navigationspaket NV (Fig. 20) in dem Strompuffer 2400 extrahiert, die Dekodierungstabelle wird definiert und der Ablauf geht über zu dem Schritt #31074. Die in der Dekodierungstabelle gesetzten Register sind das VOBU_EA_reg, das VOB_V_SPTM_reg, das VOB_V_EPTM_reg, das VOB_A_STP_PTM1_reg, das VOB_A_STP_PTM2_reg, das VOB_A_GAP_LEN1_reg und das VOB_A_GAP_LEN2_reg.
  • In dem Schritt #31074 werden die Daten von der VOBU-Anfangsadresse der ersten Zelle C_FVOBU_SA_reg zu der Endpaketadresse VOBU EA_reg, d. h., die Daten für eine Video-Objekteinheit VOBU zu dem Strompuffer 2400 übertragen. Der Ablauf geht dann über zu dem Schritt #31076. Die Daten für eine fortlaufend auf dem Aufzeichnungsmedium M angeordnete Video-Objekteinheit VOBU können somit zu dem Strompuffer 2400 übertragen werden.
  • In dem Schritt #31076 wird festgelegt, ob sämtliche Zellendaten übertragen wurden. Wenn nicht sämtliche VOBU in der Zelle übertragen wurden, werden die Daten für die nächste VOBU kontinuierlich gelesen und der Ablauf geht zurück zu dem Schritt #31070.
  • Wenn jedoch sämtliche VOBU-Daten in der Zelle übertragen wurden, wie durch den C_LVOBU_SA_reg-Wert in dem Schritt #31076, endet der fortlaufende Nicht- Mehrfachwinkel-Blockvorgang (Schritt #31054). Dieser Vorgang überträgt somit die Daten einer Zelle zu dem Strompuffer 2400.
  • Dekodierungsablauf in dem Stromouffer
  • Der Vorgang zum Dekodieren von Daten in dem Strompuffer 2400, der als Schritt #31034 in Fig. 61 gezeigt ist, wird unten anhand von Fig. 66 beschrieben. Dieser Vorgang (Schritt #31034) umfaßt die Schritte #31110, #31112, #31114 und #31116.
  • In dem Schritt #31110 werden Daten in Paketeinheiten von dem Strompuffer 2400 zu dem Systemdekodierer 2500 (Fig. 26) übertragen. Der Ablauf geht dann über zu dem Schritt #31112.
  • In dem Schritt #31112 gelangen die Daten von dem Strompuffer 2400 zu jedem der Puffer, d. h., dem Videopuffer 2600, dem Sub-Bild-Puffer 2700 und dem Audiopuffer 2800.
  • In dem Schritt #31112 werden die Ids der benutzerselektierten Audio- und Sub- Bild-Daten, d. h., die Audio-ID AUDIO_ID_reg und die Sub-Bild-ID SP_ID_reg, die in dem in Fig. 58 gezeigten Szenario-Informationsregister gespeichert sind, mit der aus dem Paket-Header (Fig. 19) gelesenen Strom-ID und Sub-Strom-ID verglichen und die übereinstimmenden Pakete werden zu den entsprechenden Puffern ausgegeben. Der Ablauf geht dann über zu dem Schritt #31114.
  • Die Dekodierungs-Zeitsteuerung der entsprechenden Dekodierer (Video-, Sub-Bild- und Audio-Dekodierer) wird in dem Schritt #31114 gesteuert, d. h., die Dekodierungsvorgänge der Dekodierer werden synchronisiert und der Ablauf geht über zu dem Schritt #31116.
  • Es ist anzumerken, daß der Dekodierer-Synchronisierungsvorgang in Schritt #31114 unten anhand von Fig. 15 beschrieben wird.
  • Die entsprechenden Elementar-Zeichenfolgen werden dann in dem Schritt #31116 dekodiert. Der Videodekodierer 3801 liest und dekodiert somit die Daten aus dem Videopuffer, der Sub-Bild-Dekodierer 3100 liest und dekodiert die Daten aus dem Sub-Bild-Puffer und der Audiodekodierer 3200 liest und dekodiert die Daten aus dem Audiopuffer.
  • Dieser Strompufferdaten-Dekodierungsvorgang endet dann, wenn diese Dekodierungsvorgänge beendet sind.
  • Der Dekodierer-Synchronisierungsvorgang des Schrittes #31114, Fig. 66, wird unten anhand von Fig. 15 beschrieben. Dieser Vorgang umfaßt die Schritte #31120, #31122 und #31124.
  • In dem Schritt #31120 wird bestimmt, ob eine unterbrechungsfreie Verbindung zwischen der gegenwärtigen Zelle und der vorausgehenden Zelle festgelegt ist. Ist es eine unterbrechungsfreie Verbindung, geht der Ablauf über zu dem Schritt #31122, wenn nicht, geht der Ablauf über zu dem Schritt #31124.
  • Ein Prozeß-Synchronisierungsvorgang zum Erzeugen unterbrechungsfreier Verbindungen wird im Schritt #31122 ausgeführt, und ein Prozeß-Synchronisierungsvorgang für nicht unterbrechungsfreie Verbindungen wird im Schritt #31124 ausgeführt.
  • Systemkodierer
  • In der unten beschriebenen Ausführungsform werden mehrere Puffer einschließlich einem Strompuffer 2400, einem Videopuffer 2600, einem Audiopuffer 2800 und Neuordnungspuffer 3300, wie in Fig. 26 gezeigt, für den einzelnen zeitteilig gesteuerten Puffer des DVD-Dekodierers DCD in der vorliegenden Erfindung verwendet.
  • Es ist anzumerken, daß in der folgenden Beschreibung die aus Halbleiter-Speichervorrichtungen oder vergleichbaren physikalischen Einrichtungen aufgebauten tatsächlichen Puffereinrichtungen als "physikalische Puffer" bezeichnet werden und die Puffereinrichtungen, in welchen unterschiedliche Daten durch zeitgeteilt gesteuerte Verwendung der physikalischen Puffer gespeichert werden, werden als "funktionale Puffer" bezeichnet. Es ist anzumerken, daß eine Sub-Bild-Daten-Dekodierung sofort ausgeführt wird und die auf den DVD-Dekodierer-DCD-Betrieb ausgeübte Last kann somit im Vergleich mit der durch die kodierten Audio- und Videoströme beaufschlagenden Last übergangen werden. Die Beschreibung der vorliegenden Ausführungsform unten ist daher auf einen einzelnen, kodierten Video strom und einen einzelnen, kodierten Audiostrom der Einfachheit halber beschränkt.
  • In Fig. 39 sind die simulierten Ergebnisse der Dateneingabe/-ausgabe des Videopuffers 2600 und des Audiopuffers 2800 des DVD-Dekodierers DCD gezeigt, und die Sequenz, in welcher der DVD-Kodierer ECD den kodierten Videostrom St27 und den kodierten Audiostrom St31 multiplext, um den entsprechenden Bitstrom zu erzeugen. Es ist anzumerken, daß der zeitliche Fortschritt auf der horizontalen Achse T gezeigt ist.
  • Der in der oberen Zeile in Fig. 39 gezeigte Rahmen G 1 zeigt die Paketierung des kodierten Videostromes St27 durch den DVD-Kodierer ECD. Jeder Block V in dem Rahmen G1 bezeichnet ein Videopaket V. Die vertikale Achse gibt die Eingabe- Übertragungsgeschwindigkeit in den Videopuffer 2600 an, und die horizontale Achse, die Zeitbasis T, gibt die Übertragungszeit an. Die Fläche jedes Videopaketes stellt die Datengröße des Paketes dar. Die Audiopakete sind vergleichbar gezeigt, wobei die Fläche der Audiopakete ebenfalls die Paketgröße anzeigt. Es ist jedoch anzumerken, daß, während die Audiopakete größer als die Videopakete V zu sein scheinen, d. h., mehr Daten enthalten, die Audiopakete und die Videopakete sämtlich die gleiche Größe aufweisen.
  • Die Dateneingabe/-ausgabe des Videopuffers 2600 des DVD-Dekodierers DCD ist in der zweiten Zeile in Fig. 39 gezeigt. Die vertikale Achse Vdv zeigt hier das akkumulierte Videodatenvolumen Vdv in dem Videopuffer 2600 an.
  • Insbesondere wird das erste Videopaket V in dem in den Videopuffer 2600 eingegebenen, kodierten Videostrom St71 zum Zeitpunkt Tb1 eingegeben. Das letzte Videopaket V in dem kodierten Videostrom St71 wird zum Zeitpunkt Tvf eingegeben. Die Linie SVi zeigt somit die Änderung in dem in dem Videopuffer 2600 akkumulierten Videodatenvolumen Vdv am Anfang des kodierten Videostromes St71 an und die Linie SVf zeigt die Änderung in dem in dem Videopuffer 2600 akkumulierten Videodatenvolumen Vdv am Ende des kodierten Videostromes St71 an. Somit zeigen die Steigungen der Linien SVi und SVf die Eingabegeschwindigkeit in den Videopuffer 2600 an. Die Linie BCv zeigt die maximale Akkumulationskapazität (Speicherkapazität) des Videopuffers 2600 an.
  • Es ist anzumerken, daß die Linien BCv und BCa basierend auf entsprechend dem MPEG-Standard in den Systemstrom-Header geschriebenen Daten bestimmt werden.
  • Das akkumulierte Videodatenvolumen Vdv in dem Videopuffer 2600 steigt linear und zum Zeitpunkt Td1 wird der erste Block d1 der Videodaten in einer First-in- First-out- (FIFO) Weise zu dem Videodekodierer 3801 übertragen, wobei er zur Dekodierung aufgebraucht wird. Als Ergebnis wird das akkumulierte Videodatenvolumen Vdv verringert auf (BCv - d1), und die Akkumulation wird fortgesetzt. Es ist anzumerken, daß, während dieses Beispiel das akkumulierte Videodatenvolumen Vdv zum Zeitpunkt Td1 zeigt, welches die maximale Speicherkapazität BCv des Videopuffers 2600 erreicht hat, es für das akkumulierte Videodatenvolumen Vdv nicht erforderlich ist, die maximale Speicherkapazität BCv erreicht zu haben, wenn die Dekodierung beginnt, und kann offensichtlich geringer als die maximale Speicherkapazität BCv sein.
  • Ein Teil der in den Videopuffer 2600 übertragenen Daten d1, insbesondere die Daten am Punkt B am oberen Ende der gestrichelten Linie mit der gleichen Steigung wie die Linie SVi und die Zeitachse bei dem Schnittpunkt tb schneidend ist die Dateneingabe zum Zeitpunkt Tb. Somit ist der zuerst dekodierte Datenblock d1 die Dateneingabe zwischen den Zeitpunkten Tb1 und Tb2. Wenn die Dateneingabezeit Tb2 weiterhin später als der Kodierungszeitpunkt Td1 ist, tritt zum Zeitpunkt Td1 ein Datenunterlauf-Zustand in dem Videopuffer 2600 auf.
  • Die Variation der bildweise kodierten Datenmenge ist in einem MPEG-komprimierten, kodierten Videostrom groß und eine vorübergehende Erschöpfung großer Mengen kodierter Daten kann auftreten. Um in solchen Fällen ein Auftreten eines Datenunterlauf-Zustands in dem Videopuffer zu verhindern, ist es erforderlich, soviel Daten wie möglich in den Videopuffer 2600 zu schreiben. Die zur Datenübertragung erforderliche Zeit wird somit als die Videopuffer-Verifizierer-Verzögerung vbv_delay bezeichnet.
  • Die dritte Zeile in Fig. 39 zeigt den Audiodaten-Paketierungsvorgang. Wie bei den Videodaten-Paketen in der ersten Zeile zeigen die Rahmen A die Audiopakete A an, deren Größe gleich der Größe der Videopakete V ist.
  • Die vierte Zeile simuliert die Ergebnisse der in den Audiopuffer 2800 eingegebenen/- ausgegebenen Daten vergleichbar mit den Ergebnissen der in den Videopuffer 2600 in der zweiten Zeile eingegebenen/ausgegebenen Daten. Die vertikale Achse zeigt hier das akkumulierte Audiodatenvolumen Vda in dem Audiostrompuffer 2800 an.
  • Es ist anzumerken, daß in Fig. 39 der Zeitpunkt Tvp1 die Videodarstellungs- Anfangszeit ist, Tap1 ist die Audiodarstellungs-Anfangszeit, Fv ist die Videorahmen-Wiedergabezeit und Fa ist die Audiorahmen-Wiedergabezeit Fa.
  • Zum Zeitpunkt Tad1 wird das erste Audiopaket A in dem kodierten Audiostrom St75 in den Audiopuffer 2800 eingegeben. Die Linie SAi zeigt somit die Änderung in dem in dem Audiopuffer 2800 akkumulierten Audiodatenvolumen Vda am Anfang des kodierten Audiostromes St75 an, und die Linie SAf zeigt die Änderung in dem in dem Audiopuffer 2800 akkumulierten Audiodatenvolumen Vda am Ende des kodierten Audiostromes St75 an. Die Steigungen der Linien SAi und SAf zeigen somit die Eingabegeschwindigkeit in den Audiopuffer 2800 an. Die Linie BCa gibt die maximale Akkumulationskapazität (Speicherkapazität) des Audiopuffers 2800 an. Es ist anzumerken, daß die maximale Speicherkapazität BCa in der gleichen Weise wie die maximale Speicherkapazität BCv des Videopuffers 2600 erhalten wird.
  • Die Audio-Zugriffseinheit, d. h., der Audiorahmen (welcher ebenfalls die Audio- Kompressionseinheit ist) ist in dem Audiostrom allgemein konstant. Ein Datenüberlaufzustand tritt in dem Audiopuffer 2800 auf, wenn der kodierte Audiostrom St75 in den Audiopuffer 2800 in einer kurzen Periode mit einer Geschwindigkeit eingegeben wird, welche die Verbrauchsgeschwindigkeit übersteigt, und das eingegebene Volumen überschreitet somit die maximale Speicherkapazität BCa des Audiopuffers 2800. Wenn dies geschieht, kann das nächste Audiopaket A nicht eingegeben werden, bis in dem Audiopuffer 2800 gespeicherte Audiodaten verbraucht sind, d. h. dekodiert sind.
  • Da die Videopakete V und die Audiopakete A weiterhin fortlaufend in einem einzelnen Bitstrom vorhanden sind, kann das folgende Videopaket V nicht in den Videopuffer 2600 eingegeben werden, auch wenn der Videopuffer 2600 selbst nicht in einem Datenüberlauf-Zustand ist, wenn ein Datenüberlauf-Zustand in dem Audiopuffer 2800 auftritt. Somit kann ein Datenüberlauf-Zustand in dem Audiopuffer 2800 einen Datenunterlauf-Zustand in dem Videopuffer 2600 abhängig von der Dauer des Datenüberlauf-Zustands erzeugen.
  • Um einen Audiopuffer-Überlauf zu verhindern, wird eine Dateneingabe in den Audiopuffer 2800 daher beschränkt, wenn die Summe der in dem Audiopuffer akkumulierten Daten und die Datengröße des Paketes die maximale Audiopuffer- Kapazität überschreiten. Die vorliegende Ausführungsform überträgt insbesondere nur die Pakete mit den zum Audio-Dekodierungszeitpunkt benötigten (Rahmen)- Daten und erlaubt nicht eine Eingabe von mehr als der benötigten Datenmenge in den Audiopuffer. Da der Unterschied in der Datengröße der Pakete (etwa 2 kB) und dem Audiorahmen (1536 Byte bei 384 Kbps bei Dolby AC-3-Kodierung) beträgt, werden die Daten für den dem gegenwärtigen Rahmen folgenden Rahmen jedoch gleichzeitig eingegeben.
  • Somit wird, wie durch den Audiodaten-Paketstrom (Zeile 3, Fig. 39) und die Audiopuffer-Eingabe/Ausgabe-Zeitsteuerung (Zeile 4, Fig. 39) gezeigt, nur etwa ein Audiorahmen mit Daten vor dem Audio-Dekodierungszeitpunkt in den Audiopuffer 2800 eingegeben.
  • Aufgrund der Merkmale eines MPEG-komprimierten Videostromes beginnt die Dekodierung normalerweise zum Videorahmen-Wiedergabezeitpunkt Fv vor der ersten Videodarstellungs-Anfangszeit Tvp1, und die Audiodaten werden in den Audiopuffer 2800 zum Audiorahmen-Wiedergabezeitpunkt Fa eingegeben, bevor die Dekodierung beginnt, d. h., vor der Audiodarstellungs-Anfangszeit Tap1. Der Videostrom wird somit in den Videopuffer 2600 etwa (Videopuffer-Verifizierer- Verzögerung vbv_delay + Videorahmen-Wiedergabezeit Fv - Audiorahmen- Wiedergabezeit Fa) etwa bevor die Audiostrom-Eingabe beginnt, eingegeben.
  • Die fünfte Zeile in Fig. 39 zeigt die Ergebnisse der Verschachtelung des Video- Paketstromes G1 (Zeile 1) mit dem Audio-Paketstrom G2 (Zeile 3). Die Audio- und Videopakete sind verschachtelt durch Multiplexen, bezogen auf die entsprechenden Eingabezeiten in die Audio- und Videopuffer.
  • Tb1 ist zum Beispiel der Index für die Puffer-Eingabezeit des ersten Paketes in dem kodierten Videostrom, und Ta1 ist der Index für die Puffer-Eingabezeit des ersten Paketes in dem kodierten Audiostrom. Die gepackten Daten werden dann, bezogen auf die Puffer-Eingabezeit der Daten in den Paketen in die Audio- und Videopuffer, gemultiplext. Da der kodierte Videostrom somit in den Videopuffer 2600 bei etwa der vbv delay plus ein Videorahmen minus ein Audiorahmen eingegeben wird, befinden sich mehrere Videorahmen fortlaufend am Anfang des Systemstromes. Es gibt eine vergleichbare Reihe von Audiopaketen am Ende des Systemstromes äquivalent etwa mit der Vorlaufzeit, mit welcher der Videostrom vor dem kodierten Audiostrom gepuffert wird.
  • Es ist wiederum anzumerken, daß ein Datenüberlauf-Zustand in dem Audiopuffer 2800 auftritt, wenn der kodierte Audiostrom St75 in einer kurzen Periode mit einer die Verbrauchsgeschwindigkeit überschreitenden Geschwindigkeit in den Audiopuffer 2800 eingegeben wird, und das eingegebene Volumen somit die maximale Speicherkapazität BCa des Audiopuffers 2800 überschreitet. Wenn dies geschieht, kann das nächste Audiopaket A nicht eingegeben werden, bis in dem Audiopuffer 2800 gespeicherte Audiodaten verbraucht sind, d. h. dekodiert sind. Daher treten Lücken am Ende des Systemstromes auf, wenn nur Audiopakete übertragen werden.
  • Wenn die Video-Bitgeschwindigkeit zum Beispiel 8 Mbps beträgt, die Videopuffer- Kapazität 224 kB beträgt und 224 kB Videodaten gepuffert sind, bevor die Videodekodierung in dem DVD-System beginnt, ist die Videopuffer-Verifizierer-Verzögerung vbv delay etwa 219 ms. Wenn eine NTSC-Video- und AC-3-Audiokodierung verwendet werden, beträgt ein NTSC-Videorahmen etwa 33 ms und ein AC-3-Audiorahmen etwa 32 ms. Am Kopf des Systemstromes läuft der Videostrom dem Audiostrom 220 ms (= 219 ms + 33 ms - 32 ms) voraus, und Videopakete werden für diese Periode fortlaufend angeordnet.
  • Die Audiopakete sind in einer vergleichbaren Reihe am Ende des Systemstromes für die Vorlaufzeit des kodierten Videostromes vor dem kodierten Audiostrom fortgesetzt.
  • Durch dieses Erzeugen und Aufzeichnen des Systemstromes kann eine Audio- und Videowiedergabe verwirklicht werden ohne Erzeugen eines Datenunterlauf- Zustands in dem Videopuffer des in Fig. 26 gezeigten DVD-Dekodierers.
  • Filme und andere Titel können durch ein DVD-System unter Verwendung dieser Art von MPEG-Systemstrom auf einer optischen Disk aufgezeichnet werden. Wenn jedoch mehrere, Eltern-Sperr-Steuerung, Director's Cut-Auswahlen und andere Merkmale implementierende Titel auf einer einzelnen optischen Disk aufgezeichnet werden, kann es erforderlich sein, zehn oder mehr Titel auf der Disk aufzuzeichnen. Dies kann erfordern, daß die Bitgeschwindigkeit herabgesetzt wird, mit dem einhergehenden Verlust von Bildqualität.
  • Durch gemeinsames Nutzen eines mehreren Titeln gemeinsamen Systemstromes, z. B. Eltern-Sperr-Steuerung, Director's Cut-Auswahlen und anderen Merkmalen implementierenden Titeln und getrenntem Aufzeichnen lediglich derjenigen Szenen, die in diesen Titeln einzeln vorkommen für jeden der mehreren Titel ist es möglich, mehrere unterschiedliche Titel auf einer einzelnen optischen Disk aufzuzeichnen, ohne die Bitgeschwindigkeit zu verringern und dadurch ohne Verlust der Bildqualität. Dieses Verfahren macht es somit zum Beispiel möglich, mehrere Titel für verschiedene Länder, Kulturen oder Sprachgruppen auf einer einzelnen optischen Disk aufzuzeichnen, ohne die Bitgeschwindigkeit zu verringern und dadurch ohne Verlust der Bildqualität.
  • Ein Beispiel eines eine Eltern-Sperr-Steuerung bereitstellenden Titelstromes ist in Fig. 40 gezeigt. Wenn sogenannte "Erwachsenenszenen" mit Sex, Gewalt oder anderen für Kinder ungeeigneten Szenen in einem Eltern-Sperr-Steuerung implementierenden Titel enthalten sind, wird der Titelstrom mit einer Kombination gemeinsamer Systemströme SSa, SSb und SSe, einem Erwachsenen-orientierten Systemstrom SSc mit den Erwachsenenszenen und einem Kinder-orientierten Systemstrom SSd mit nur den für Kinder geeigneten Szenen aufgezeichnet. Titelströme wie dieser werden als ein Mehrfachszenen-Systemstrom mit dem Erwachsenenorientierten Systemstrom SSc und dem Kinder-orientierten Systemstrom SSd, zwischen den gemeinsamen Systemströmen SSb und SSe in einer Mehrfachszenenperiode angeordnet aufgezeichnet.
  • Die Beziehung zwischen jedem der Komponententitel und dem in der Programmkette PGC eines somit umfaßten Titelstromes aufgezeichneten Systemstrom ist unten beschrieben.
  • Die Erwachsenen-orientierte Titel-Programmkette PGC1 umfaßt in der Reihenfolge die gemeinsamen Systemströme SSa und SSb, den Erwachsenen-orientierten Systemstrom SSc und den gemeinsamen Systemstrom SSe. Die Kinder-orientierte Titel-Programmkette PGC2 umfaßt in der Reihenfolge die gemeinsamen Systemströme SSa und SSb, den Kinder-orientierten Systemstrom SSd und den gemeinsamen Systemstrom SSe.
  • Um Systemströme innerhalb von Titeln mit Mehrfachszenenperioden wie diesem gemeinsam zu nutzen und den Systemstrom bei Bedarf zur Bearbeitung aufzuteilen, ist es ebenfalls erforderlich, in der Lage zu sein, diese Systemströme zu verbinden und fortlaufend wiederzugeben. Wenn Systemströme verbunden und fortlaufend wiedergegeben werden, treten jedoch Pausen in der Videodarstellung (Einfrieren) an den Systemstrom-Verbindungen auf und einen natürlichen Fluß eines einzelnen Titels darstellende, unterbrechungsfreie Wiedergabe ist schwer zu verwirklichen.
  • Die Dateneingabe/-ausgabe des Videopuffers 2600 des in Fig. 26 gezeigten DVD- Dekodierers DCD während der fortlaufenden Wiedergabe ist in Fig. 41 gezeigt.
  • In Fig. 41 zeigt der Block Ga die Dateneingabe/-ausgabe zu dem Videopuffer 2600, wenn der kodierte Videostrom Sva und der kodierte Videostrom Svb in den DVD- Dekodierer DCD eingegeben werden. Der Block Gb zeigt die Video-Paketströme des kodierten Videostromes Sva und des kodierten Videostromes Svb. Der Block Gc zeigt die verschachtelten Systemströme Sra und Srb. Es ist anzumerken, daß die Blöcke Ga, Gb und Gc bezogen auf die gleiche Zeitbasis T angeordnet sind, wie die in Fig. 39 gezeigte.
  • In dem Block Ga zeigt die vertikale Achse das akkumulierte Videodatenvolumen Vdv in dem Videopuffer, und die Steigung Sva zeigt die Eingabegeschwindigkeit in den Videopuffer 2600. Wo das in dem Videopuffer 2600 akkumulierte Videodatenvolumen Vdv gezeigt ist, um in dem Block Ga abzusinken, zeigt dies daher einen Datenverbrauch an, d. h., Daten wurden zur Dekodierung ausgegeben.
  • Die Zeit T1 gibt ebenfalls die eingegebene Endzeit des letzten Videopaketes V1 in dem Systemstrom Sra (Block Gc) an, der Zeitpunkt T3 zeigt die Eingabe-Endzeit des letzten Audiopaketes A1 in dem Systemstrom Srb an, und der Zeitpunkt Td zeigt den ersten Dekodierungszeitpunkt des kodierten Videostromes Svb (Block Ga) an.
  • Von den zwei Systemströmen, dem kodierten Videostrom Sva und dem kodierten Audiostrom Saa, welche den Systemstrom Sra bilden, wird der kodierte Videostrom Sva in den Videopuffer 2600 eingegeben, bevor der kodierte Audiostrom Saa in den Audiopuffer 2800 eingegeben wird, wie oben beschrieben. Eine Reihe von Audiopaketen A bleibt daher am Ende des Systemstromes Sra.
  • Ein Datenüberlauf-Zustand tritt ebenfalls in dem Audiopuffer 2800 auf, wenn Audiopakete A die Kapazität des Audiopuffers 2800 überschreiten, die darin eingegeben werden. Wenn dies auftritt, kann das nächste Audiopaket nicht gepuffert werden, bis ein äquivalenter Betrag von Audiodaten verbraucht ist, d. h., dekodiert ist.
  • Das erste Videopaket V2 in dem Systemstrom Srb kann daher nicht in den Videopuffer 2600 eingegeben werden, bis die Eingabe des letzten Audiopaketes A1 in dem Systemstrom Sra beendet ist. Als Ergebnis kann die Videostrom-Eingabe in den Videopuffer 2600 infolge der Wechselwirkung von dem Audiopaket A1 während der Periode von T1, dem Eingabe-Endzeitpunkt des letzten Videopaketes V1 in dem Systemstrom Sra bis T3, dem Eingabe-Endzeitpunkt des letzten Audiopaketes A1 in dem Systemstrom Sra, fortgesetzt werden.
  • In dem folgenden Beispiel wird angenommen, daß die Video-Bitgeschwindigkeit des DVD-Systems 8 Mbps beträgt, die Videopuffer-Kapazität beträgt 224 kB, und die Audiopuffer-Kapazität beträgt 4 kB, die Audiodaten werden mit Dolby AC-3-Kompression kodiert, und die Kompressions-Bitgeschwindigkeit beträgt 384 kbps. Bei der AC-3-Audiokompression beträgt die Wiedergabezeit eines Audiorahmens 32 ms entsprechend einer Datengröße von 1536 Bytes/Rahmen, und daher können zwei Audiorahmen in dem Audiopuffer gespeichert werden.
  • Da die Anzahl von Audiorahmen, die in dem Audiopuffer gespeichert werden können, zwei ist, ist der frühestmögliche Zeitpunkt T3, welcher der Eingabe- Endzeitpunkt des letzten Audiopaketes A1 in dem Systemstrom Sra ist, bei der (Wiedergabe-Anfangszeit des letzten Audiorahmens in dem Systemstrom Sra) - (Wiedergabezeit von zwei Audiorahmen). Die Wiedergabe-Anfangszeit des letzten Audiorahmens in dem Systemstrom Sra ist ebenfalls etwa ein Audiorahmen früher als die Darstellungs-Anfangszeit des ersten Rahmens in dem kodierten Videostrom Svb des Systemstromes Srb. Die Darstellungs-Anfangszeit des kodierten Videostromes Svb liegt bei der Videopuffer-Verifizierer-Verzögerung vbv_delay plus einem Videorahmen nach dem Eingabe-Endzeitpunkt T1 des letzten Videopaketes V1 in dem Systemstrom Sra.
  • Wenn 224 kB Videodaten zu dem Zeitpunkt gepuffert werden, zu dem die Videodekodierung beginnt, beträgt die Videopuffer-Verifizierer-Verzögerung vbv_delay daher etwa 219 msek. Wenn eine NTSC-Video- und AC-3-Audio-Kodierung verwendet werden, hat ein NTSC-Videorahmen etwa 33 ms und ein AC-3-Audiorahmen hat etwa 32 ms. Somit ergeben sich etwa 156 ms (= 219 ms + 33 ms - 32 ms - 2 · 32 ms) von dem Eingabe-Endzeitpunkt T1 des letzten Videopaketes V1 in dem Systemstrom Sra bis zu dem Eingabe-Endzeitpunkt T3 des letzten Audiopaketes A1 in dem Systemstrom Sra. Der kodierte Videostrom Svb kann während dieser etwa 156 ms langen Periode nicht in den Videopuffer 2600 eingegeben werden.
  • Da sämtliche Dekodierungsdaten d1 zum Zeitpunkt Td nicht in den Videopuffer 2600 eingegeben sind, tritt daher ein Datenunterlauf-Zustand in dem Videopuffer 2600 auf. In solchen Fällen wird die Videodarstellung unterbrochen, ein Video- Einfrieren tritt auf und eine korrekte Videodarstellung wird unterbrochen.
  • Wenn mehrere Systemströme verbunden sind und fortlaufend dekodiert werden, um eine einzelne fortlaufende Sequenz von Szenen aus mehreren Titeln mit einem gemeinsam verwendeten Systemstrom und mehreren Systemströmen mit für bestimmte Titel getrennt kodiertem Inhalt wiederzugeben, kann ein als Pausen in der Videodarstellung bei Systemstrom-Verbindungen erscheinendes Video-Einfrieren auftreten, und es ist nicht immer möglich, solche mehreren Systemströme als einen einzelnen fortlaufenden Titel unterbrechungsfrei wiederzugeben.
  • Wenn mehrere unterschiedliche Systemströme SSc und SSd zu einem gemeinsamen Systemstrom SSe verbunden sind, wie in Fig. 40 gezeigt, tritt eine Zeitdifferenz zwischen der Video-Wiedergabezeit und der Audio-Wiedergabezeit wegen des Versatzes zwischen den Audio- und Videorahmen-Wiedergabezeiten auf und diese Zeitdifferenz variiert entsprechend dem Wiedergabepfad. Als Ergebnis versagt die Puffersteuerung bei der Verbindung, die Videowiedergabe friert ein, oder die Audiowiedergabe wird verzerrt, und eine unterbrechungsfreie Wiedergabe ist nicht möglich.
  • Dieses Problem wird unten anhand von Fig. 42 betrachtet, wie es bei dem in Fig. 40 gezeigten Eltern-Sperr-Steuerungsbeispiel auftritt. In Fig. 42 stellen SScv und SSca die Wiedergabezeiten der Video- und Audio-Rahmen-Einheitenströme im Erwachsenen-orientierten Systemstrom SSc dar. SSdv und SSda stellen vergleichbar die Wiedergabezeiten der Video- und Audio-Rahmen-Einheitenströme in dem Kinder-orientierten Systemstrom SSd dar.
  • Wie oben beschrieben, dauert, wenn eine NTSC-Video- und AC-3-Audio-Kodierung verwendet werden, ein NTSC-Videorahmen etwa 33 ms, und ein AC-3-Audiorahmen dauert etwa 32 ms, und daher stimmen die Audio- und Video-Wiedergabezeiten nicht überein. Als Ergebnis tritt eine Differenz in der Video-Wiedergabezeit auf, welche ein ganzzahliges Vielfaches der Videorahmen-Wiedergabezeit ist, und der Audio-Wiedergabezeit, welche ein ganzzahliges Vielfaches der Audiorahmen-Wiedergabezeit ist. Diese unterschiedliche Wiedergabezeit wird ausgedrückt als Tc in dem Erwachsenen-orientierten Systemstrom SSc und der Zeit Td in dem Kinder-orientierten Systemstrom SSd. Dieser Unterschied variiert ebenfalls entsprechend dem Wechsel in der Wiedergabezeit der Wiedergabepfade, und Tc_Td.
  • Wenn mehrere Systemströme mit einem einzelnen Systemstrom verbunden werden, wie oben bei der Eltern-Sperr-Steuerung und Director's-Cut-Titeln beschrieben, ergibt sich daher eine maximale Wiedergabelücke von einem Rahmen in den Audio- und Video-Wiedergabezeiten an den Punkten, wo die Systemströme verzweigen und sich verbinden.
  • Diese Wiedergabelücke wird als nächstes anhand von Fig. 43 beschrieben. Die obere Programmkette PGC1 stellt den Wiedergabepfad des Erwachsenenorientierten Systemstromes dar. SScv und SSev stellen die Wiedergabezeiten der Videorahmen-Einheitenströme in dem Erwachsenen-orientierten Systemstrom SSc und dem gemeinsamen Systemstrom SSe dar, und SSca und SSea stellen die Wiedergabezeiten der Audiorahmen-Einheitenströme in dem Erwachsenen-orientierten Systemstrom SSc und dem gemeinsamen Systemstrom SSe dar.
  • Diese Rahmeneinheiten-Wiedergabezeiten werden in der Figur durch die mit Pfeilen an beiden Enden endenden Liniensegmente ausgedrückt.
  • Der Videostrom SScv des Erwachsenen-orientierten Systemstromes SSc endet in diesem Beispiel nach drei Rahmen, und wird gefolgt von dem in dem Rahmen 4 mit dem ersten Rahmen des Videostromes SSev beginnenden, gemeinsamen Systemstrom SSe. Der Audio-Systemstrom SSca endet ebenso bei dem Rahmen 4 und der erste Rahmen des gemeinsamen Audio-Systemstromes SSea beginnt ab Rahmen 5. Der resultierende Unterschied in den Rahmen-Wiedergabezeiten zwischen den Audio- und Videoströmen erzeugt eine Wiedergabelücke der Zeit Tc äquivalent mit einem Maximum von einem Rahmen zwischen dem Videostrom und dem Audiostrom, wenn diese zwei Ströme SSc und SSe verbunden sind.
  • Die untere Programmkette PGC2 stellt vergleichbar den Wiedergabepfad des Kinder-orientierten Systemstromes dar. Ssdv und SSev stellen die Wiedergabezeiten der Videorahmen-Einheitenströme in dem Kinder-orientierten Systemstrom SSd und dem gemeinsamen Systemstrom SSe dar, und SSda und SSea stellen die Wiedergabezeitpunkte der Audiorahmen-Einheitenströme in dem Kinder-orientierten Systemstrom SSd und dem gemeinsamen Systemstrom SSe dar.
  • Wie bei der Erwachsenen-orientierten Programmkette PGC1 oben, tritt eine Wiedergabelücke der Zeit Td äquivalent zu maximal einem Rahmen zwischen dem Videostrom und dem Audiostrom auf, wenn diese zwei Ströme SSd und SSe verbunden werden. Wenn die Wiedergabepfade zu den gemeinsamen Systemströmen vor dem Verbindungspunkt differieren, wie in Fig. 43 gezeigt, ist es möglich, die Wiedergabe-Anfangszeiten der verbundenen, gemeinsamen Audio- und Videoströme an die Wiedergabe-Anfangszeitdifferenz von wenigstens einem Wiedergabepfad anzupassen. Wie in dieser Figur gezeigt, sind die Audio- und Video-Endzeitpunkte des Erwachsenen-orientierten Systemstromes SSc die gleichen wie die Audio- und Video-Anfangszeitpunkte des gemeinsamen Systemstromes SSe, d. h., eine lücken lose Verbindung wird verwirklicht. Es ist anzumerken, daß in diesem Beispiel die Lücke Td des Kinder-orientierten Systemstromes SSd geringer als die Lücke Tc des Erwachsenen-orientierten Systemstromes SSc ist (Td < Tc).
  • Die eine Programmkette PGC1, d. h., der Erwachsenen-orientierte Systemstrom SSc und der gemeinsame Systemstrom SSe, wird somit ohne eine Wiedergabelücke wiedergegeben, die Programmkette PGC2, d. h., der Kinder-orientierte Systemstrom SSd und der gemeinsame Systemstrom SSe, wird aber mit einer Audio-Wiedergabelücke von Tc-Td wiedergegeben. Auch beim Verbinden mehrerer Wiedergabepfade (SSc und SSd) mit einem Systemstrom (SSe) ist es somit möglich, jede Wiedergabelücke in dem Bild oder Ton in wenigstens einem Wiedergabepfad zu beseitigen.
  • Die dritte Zeile in Fig. 43 zeigt die Änderung in der Audiopuffer-Speicherung während der fortlaufenden Wiedergabe der Programmkette PGC2, d. h., dem Kinder-orientierten Systemstrom SSd und dem gemeinsamen Systemstrom SSe. Die rahmenweise Wiedergabezeit des Audiostromes in dem Audiopuffer wird durch die Pfeile angezeigt. Es ist anzumerken, daß die Systemströme SSd und SSe mit einer Audio-Wiedergabelücke von Tc-Td verbunden sind, der Differenz zwischen der Wiedergabe-Zeitdifferenz Tc von PGC1 und der Wiedergabe-Zeitdifferenz TD von PGC2 an der Verbindung.
  • Da jedoch DVD-Wiedergabegeräte normalerweise Audio- und Video-Ausgabe bezogen auf das Audiosignal synchronisieren, werden die Audiorahmen kontinuierlich ausgegeben. Als Ergebnis wird die Audio-Wiedergabelücke Tc-Td nicht als Lücke während der Wiedergabe wiedergegeben, und die Audio-Wiedergabe ist daher fortlaufend.
  • Der gemeinsame Systemstrom SSe ist kodiert, so daß der Ton wiedergegeben, d. h., dekodiert wird mit einer Verzögerung von Tc gegenüber dem Bild. Wenn der Ton wiedergegeben wird, d. h., dekodiert wird, so daß keine Audio-Wiedergabelücke Tc-Td auftritt, wird als Ergebnis eine Audiodekodierung verwirklicht, bevor die Audiodaten vollständig in den Audiopuffer eingegeben sind und in dem Audiopuffer resultiert ein Datenunterlauf-Zustand, wie durch die Linie Lu in Fig. 43 gezeigt.
  • Wenn die Audio-Wiedergabe fortlaufend ist, und eine Wiedergabelücke zwischen den Videorahmen eingefügt ist, tritt ein Datenunterlauf-Zustand in dem Videopuffer infolge der Videostrom-Wiedergabe vergleichbar mit der wie in Fig. 41 gezeigt unterbrochenen Videostrom-Wiedergabe auf.
  • Wenn mehrere unterschiedliche Systemströme und ein gemeinsamer Systemstrom verbunden werden, wie somit beschrieben, tritt eine Differenz zwischen der Video- Wiedergabezeit und der Audio-Wiedergabezeit der entsprechenden Pfade infolge des Versatzes in den Audio- und Videorahmen-Wiedergabezeiten auf.
  • Die vorliegende Erfindung stellt daher ein Aufzeichnungsverfahren und eine Vorrichtung sowie ein Wiedergabeverfahren und eine Vorrichtung bereit, bei welchen ein Video- oder Audiopuffer-Unterlaufzustand an den Systemstromverbindungen verhindert wird und eine unterbrechungsfreie Wiedergabe, bei welcher Pausen in der Video-Wiedergabe (Einfrierungen) oder Pausen in der Audio-Wiedergabe (muting) nicht auftreten.
  • Ein Verfahren zum Verbinden eines einzelnen, gemeinsamen Systemstromes mit mehreren in der Mehrfachszenenperiode eines Titelstromes enthaltenen Systemströmen, wie in Fig. 40 gezeigt, wird unten gemäß der vorliegenden Erfindung beschrieben. Der physikalische Aufbau der optischen Disk M, der gesamte Datenaufbau der optischen Disk M und die Strukturen des DVD-Kodierers ECD und des. DVD-Dekodierers DCD in dieser Ausführungsform sind, wie vorstehend anhand der Fig. 4-14, Fig. 1, 16-20, 22, Fig. 25, 27-29 und Fig. 26 oben beschrieben, und auf eine weitere Beschreibung davon unten wird somit verzichtet.
  • Es gibt zwei Datenübertragungsmodelle unter dem MPEG-Standard: konstante Bitgeschwindigkeit (CBR), wobei Daten fortlaufend ohne Unterbrechungen übertragen werden, und veränderliche Bitgeschwindigkeit (VBR), wobei Daten intermittierend mit Unterbrechungen in der Übertragung übertragen werden. Zur Vereinfachung wird die vorliegende Ausführungsform unten nur unter Verwendung des CBR- Modells beschrieben.
  • Eine einfache 1 : 1-Systemstrom-Verbindung zwischen ersten und zweiten gemeinsamen Systemströmen SSa und SSb anhand der Fig. 44, 45 und 46 wird zuerst beschrieben. Zur Vereinfachung ist die folgende Beschreibung auf den Ablauf unter Verwendung eines Videostromes SSav und eines Audiostromes SSba beschränkt.
  • Die erfindungsgemäß erzeugten Systemströme sind in Fig. 44 gezeigt, der Vorgang, durch welchen diese Systemströme verbunden werden, ist in Fig. 45 gezeigt, und das Verfahren zum Erzeugen der Systemströme ist in Fig. 46 gezeigt.
  • Der Aufbau des Endes des führenden, gemeinsamen Systemstromes SSa, der Kopf des folgenden, gemeinsamen Systemstromes SSb, die auf der optischen Disk M aufgezeichnet sind, sind in Fig. 44 gezeigt.
  • In Fig. 44 ist der Aufbau des Endes des vorausgehenden, gemeinsamen Systemstromes SSa und der danach folgende, gemeinsame Systemstrom SSb gezeigt. Es ist anzumerken, daß beide Systemströme SSa und SSb auf der optischen Disk M aufgezeichnet sind.
  • Der fünfte Zeilenblock Ge zeigt den Aufbau beider Systemströme SSa und SSb. Der erste gemeinsame Systemstrom SSa umfaßt den Videostrom SSav und den Audiostrom SSaa, der zweite gemeinsame Systemstrom SSb umfaßt vergleichbar den Videostrom SSbv und den Audiostrom SSba.
  • Die vierte Zeile Gd zeigt die Audio-Paketströme A des Audiostromes SSaa und des Audiostromes SSba, die aus dem Systemstrom SSa und dem Systemstrom SSb extrahiert sind.
  • Die dritte Zeile Gc zeigt den Dateneingabe/-ausgabe-Zustand des Audiopuffers 2800, wenn der Audiostrom SSaa und der Audiostrom SSba in den in Fig. 26 gezeigten DVD-Dekodierer DCD eingegeben werden.
  • Die zweite Zeile Gb zeigt die Video-Paketströme V des Videostromes SSav und des Videostromes SSbv, die aus dem Systemstrom SSa und dem Systemstrom SSb extrahiert werden.
  • Die erste Zeile Ga zeigt den Dateneingabe/-ausgabe-Zustand des Videopuffers 2600, wenn der Videostrom SSav und der Videostrom SSbv in den in Fig. 26 gezeigten DVD-Dekodierer DCD eingegeben werden.
  • Es ist anzumerken, daß Ga, Gb, Gc, Gd und Ge sämtlich auf die gleiche Zeitbasis (Richtung T) bezogen sind.
  • Tvae in Fig. 44 ist der Eingabe-Endzeitpunkt des Videostromes SSav in den Video puffer 2600 und Tage ist der Eingabe-Endzeitpunkt des Audiostromes SSaa in den Audiopuffer 2800.
  • Wenn der Systemstrom SSa in den DVD-Dekodierer DCD eingegeben wird, ist die Differenz zwischen den Eingabe-Endzeitpunkten Tvae und Tage des Videostromes SSav und des Audiostromes SSaa in die entsprechenden Puffer 2600 und 2800 gering und ist geringer als die Wiedergabezeit von zwei Audiorahmen. Als Ergebnis kann das letzte Audiopaket A in dem Audiopuffer 2800 akkumuliert werden, bevor die Eingabe der Audio- und Videoströme in dem nächsten Systemstrom beginnt.
  • Wenn der Systemstrom SSb in den DVD-Dekodierer DCD eingegeben wird, ist die Differenz zwischen den Eingabe-Anfangszeiten des Videostromes SSbv und des Audiostromes SSba in die entsprechenden Puffer 2600 und 2800 gering und ist geringer als die Wiedergabezeit von zwei Audiorahmen.
  • Der Dateneingabe/-ausgabe-Zustand des Videopuffers 2600 zeigt, wenn auf der optischen Disk M gespeicherte Systemströme SSa und SSb (Fig. 44) verbunden und fortlaufend wiedergegeben werden.
  • Die obere Zeile in Fig. 45 zeigt den Dateneingabe/-ausgabe-Zustand des Videopuffers 2600, wenn der Videostrom SSav und der Videostrom SSbv fortlaufend in den DVD-Dekodierer DCD eingegeben werden.
  • Wie in Fig. 39, Fig. 41 und Fig. 44 gibt die vertikale Achse Vdv das akkumulierte Videodatenvolumen Vdv in dem Videopuffer 2600 an, und die horizontale Achse zeigt die Zeit T an. Die Linien SSav und SSbv zeigen die Änderung in dem in dem Videopuffer 2600 akkumulierten Videodatenvolumen Vdv an, und die Steigung der Linien zeigt die Eingabegeschwindigkeit in den Videopuffer 2600 an. Wo das akkumulierte Videodatenvolumen Vdv in dem Videopuffer 2600 absinkt, zeigt dies einen Datenverbrauch an, d. h., die Dekodierung ist aufgetreten.
  • Die zweite Zeile zeigt die Video-Paketströme in den in Fig. 26 gezeigten Videoströmen SSav und SSbv.
  • Die dritte Zeile zeigt die Systemströme SSa und SSb entsprechend der vorliegenden Ausführungsform. Der Zeitpunkt T1 ist der Eingabe-Endzeitpunkt des letzten Videopaketes V1 in dem Systemstrom SSa, der Zeitpunkt T2 bezeichnet den Eingabe-Anfangszeitpunkt des ersten Videopaketes V2 in dem Systemstrom SSb, und der Zeitpunkt T zeigt den Dekodierungs-Anfangszeitpunkt des Systemstromes SSb.
  • Die Differenz zwischen den Eingabe-Endzeitpunkten in den Videopuffer 2600 und den Audiopuffer 2800 des Videostromes SSav und des Audiostromes SSaa, welche den Systemstrom SSa der vorliegenden Ausführungsform bilden, wird durch das in Fig. 46 gezeigte Systemstrom-Erzeugungsverfahren verringert. Als Ergebnis tritt eine Wechselwirkung mit der Eingabe des Systemstromes SSb, welche aus einer Aufeinanderfolge verbleibender Audiopakete A am Ende des Systemstromes SSa resultiert, nicht auf. Die Differenz zwischen dem Eingabe- Endzeitpunkt T1 des ersten Videopaketes V1 des Systemstromes SSa und dem Eingabe-Anfangszeitpunkt T2 des ersten Videopaketes V2 in dem Systemstrom SSb ist gering, es ist ausreichend Zeit vorhanden, von dem Eingabe-Anfangszeitpunkt T2 des Videopaketes V2 zu dem ersten Dekodierungs-Zeitpunkt Td des Videostromes SSbv, und der Videopuffer 2600 zeigt daher zum Zeitpunkt Td keinen Unterlauf.
  • Abweichend von dem in Fig. 41 gezeigten Systemstrom weist der Audiopuffer 2800 daher am Ende des Systemstromes keinen Überlauf auf, d. h., es gibt keine Wechselwirkung mit dem Eingeben des kodierten Videostromes des nächsten. Systemstromes beim Verbinden und fortlaufenden Wiedergeben der Systemströme SSa und SSb gemäß der vorliegenden Ausführungsform, und eine unterbrechungsfreie Wiedergabe kann verwirklicht werden.
  • Ein erstes Verfahren zum Erzeugen eines ersten gemeinsamen Systemstromes SSa und eines zweiten gemeinsamen Systemstromes SSb, die danach verbunden werden, ist unten anhand von Fig. 46 beschrieben. Es ist anzumerken, daß, wie in Fig. 44, der Aufbau des Endes des führenden, gemeinsamen Systemstromes SSa und der Kopf des folgenden gemeinsamen Systemstromes SSb, die auf der optischen Disk M aufgezeichnet sind, in Fig. 46 gezeigt sind.
  • Die erste Zeile in Fig. 46 entspricht dem Block Ga in Fig. 44 und simuliert die Dateneingabe/-ausgabe des Videostromes SSav und des Videostromes SSbv zu dem Videopuffer 2600. Der Zeitpunkt T1 ist der Eingabe-Endzeitpunkt sämtlicher Daten in dem Videostrom SSav.
  • Die zweite Zeile entspricht vergleichbar dem Block Gb in Fig. 44 und zeigt den Videodaten-Paketstrom.
  • Die dritte Zeile entspricht vergleichbar dem Block Gc in Fig. 44 und simuliert die Dateneingabe/-ausgabe des Audiostromes SSaa und des Audiostromes SSba des Audiopuffers 2800.
  • Die vierte Zeile entspricht vergleichbar dem Block Gd in Fig. 44 und zeigt den Audiodaten-Paketstrom.
  • Die fünfte Zeile entspricht vergleichbar dem Block Ge in Fig. 44 und zeigt den aus der Verschachtelung und dem Packen der in der zweiten Zeile gezeigten Videopakete V und der in der vierten Zeile gezeigten Audiopakete A resultierenden Systemstrom. Die Videopakete und Audiopakete sind in einer FIFO-Weise aus den Video- und Audiopuffern verschachtelt, bezogen auf den Paket-Eingabezeitpunkt in den entsprechenden Puffer. Mit anderen Worten werden die gepackten Datenbezogen auf den Zeitpunkt, zu dem die in dem Paket enthaltenen Daten in den Video- oder Audiopuffer eingegeben werden, gemultiplext.
  • Das Verfahren zum Erzeugen des ersten gemeinsamen Systemstromes und des folgenden zweiten gemeinsamen Systemstromes wird als nächstes beschrieben.
  • Es wird unten angenommen, daß die Video-Bitgeschwindigkeit 8 Mbps beträgt, die Videopuffer-Kapazität 224 kB ist und die Audiopuffer-Kapazität 4 kB ist, die Audiodaten sind mit Dolby-AC-3-Kompression kodiert, und die Kompressions- Bitgeschwindigkeit beträgt 384 kbps. Bei der AC-3-Audio-Kompression beträgt die Wiedergabezeit eines Audiorahmens 32 ms entsprechend einer Datengröße von 1536 Byte/Rahmen, und zwei Audiorahmen können daher in dem Audiopuffer gespeichert werden.
  • Bezogen auf den Eingabe-Endzeitpunkt T1 des Videostromes SSav in den Videopuffer 2600 werden die dem gegenwärtigen Audiorahmen folgenden Audiorahmendaten zum Zeitpunkt T1 in den Audiostrom SSba gebracht, um einen Audiorahmen in dem Audiopuffer zu akkumulieren. Dieser Vorgang wird unten detailliert anhand des in Zeile 3 in Fig. 46 gezeigten Simulationsergebnisses beschrieben.
  • Insbesondere werden zwei Audiorahmen (= 1536 Byte) von dem kodierten Audiostrom SSaa in dem Audiopuffer (4 kb Kapazität) zum Zeitpunkt T1 akkumuliert, und die danach folgenden dritten bis sechsten Audiorahmen, durch den Rahmen Ma in Fig. 46 gezeigt, werden an den Anfang des folgenden, kodierten Audiostromes SSba verschoben. Es ist anzumerken, daß der kodierte Audiostrom in Audio- Rahmeneinheiten verschoben wird, da der Audiorahmen die Einheit der Wiedergabe ist.
  • Dem obigen Vorgang folgend wird der kodierte Videostrom SSav paketiert, wie in Zeile 2 in Fig. 46 gezeigt, und der kodierte Audiostrom SSaa wird paketiert, wie in Zeile 4 gezeigt. Wie in Zeile 5 gezeigt, werden die Videopakete V und die Audiopakete A dann verschachtelt (gemultiplext), um eine durchschnittliche Verteilung von Audiopaketen und Videopaketen in der oben beschriebenen, auf die Paketeingabezeitpunkte in die Puffer 2600 und 2800 bezogene FIFO-Sequenz zu unterstützen. Nach Packen und Konvertieren in einen Systemstrom werden die Daten dann auf der optischen Disk aufgezeichnet.
  • Auf die gleiche Weise wird der kodierte Videostrom SSbv paketiert, wie in Zeile 2 in Fig. 46 gezeigt, und der kodierte Audiostrom SSba wird paketiert, wie in Zeile 4 gezeigt. Wie in Zeile 5 gezeigt, werden die Videopakete V und die Audiopakete A dann verschachtelt (gemultiplext), um eine durchschnittliche Verteilung der Audiopakete in den Videopaketen in der oben bezogen auf die Paket-Eingabezeitpunkte in die Puffer 2600 und 2800 beschriebenen FIFO-Sequenz zu unterstützen. Nach Packen und Konvertieren in einen Systemstrom werden die Daten dann auf der optischen Disk aufgezeichnet.
  • Die resultierenden Systemströme SSa und SSb sind somit aufgebaut, wie in Fig. 44 gezeigt, und erlauben eine unterbrechungsfreie Wiedergabe durch den in Fig. 26 gezeigten DVD-Dekodierer DCD.
  • Da die zwei Audiorahmen in dem Audiopuffer akkumuliert werden können, wird der zum Zeitpunkt T1 in dem Audiopuffer gespeicherte, letzte Audiorahmen in dem Systemstrom SSa als das letzte Audiopaket in dem Systemstrom SSa während der Zwei-Rahmen-Wiedergabezeit übertragen, bevor die Dekodierung des letzten Audiorahmens beginnt. Die maximale Eingabe-Endzeit-Differenz zwischen den Videopaketen und den Audiopaketen am Ende des Systemstromes SSa ist daher die Wiedergabezeit der zwei Audiorahmen.
  • Weiterhin zeigt der Audiopuffer keinen Unterlauf, wenn die nächsten Audiodaten in den Audiopuffer vor der Darstellungs-Endzeit der in dem Audiopuffer akkumulierten Audiorahmen zum Zeitpunkt T2 eingegeben werden. Der Eingabezeitpunkt des ersten Audiopaketes in dem Systemstrom SSb liegt daher spätestens innerhalb der Wiedergabezeit der zwei Audiorahmen nach dem Zeitpunkt T2 (= Darstellungszeit der akkumulierten Audiorahmen + Wiedergabezeit eines Audiorahmens). Die maximale Eingabe-Anfangszeitdifferenz zwischen den Videopaketen und den Audiopaketen am Beginn des Systemstromes SSb ist daher die Wiedergabezeit der zwei Audiorahmen.
  • Ein zweites Verfahren zum Erzeugen des auf einer optischen Disk aufgezeichneten Systemstromes gemäß der vorliegenden Ausführungsform wird als nächstes unten anhand von Fig. 47 beschrieben. Die ersten, zweiten, dritten, vierten und fünften Zeilen in Fig. 47 simulieren die Video- und Audio-Daten-Eingabe/Ausgabe-Zustände der entsprechenden Puffer, bezogen auf die gemeinsame Zeitbasis T, wie in Fig. 44 gezeigt.
  • Die erste Zeile in Fig. 47 entspricht dem Block Ga in Fig. 44 und simuliert die Daten-Eingabe/Ausgabe des Videostromes SSav und des Videostromes SSbv zu dem Videopuffer 2600.
  • Die zweite Zeile entspricht vergleichbar dem Block Gb in Fig. 44 und zeigt den Videodaten-Paketstrom.
  • Die dritte Zeile entspricht vergleichbar dem Block Gc in Fig. 44 und simuliert die Daten-Eingabe/Ausgabe des Audiostromes SSaa und des Audiostromes SSba zu dem Audiopuffer 2800.
  • Die vierte Zeile entspricht vergleichbar dem Block Gd in Fig. 44 und zeigt den Audiodaten-Paketstrom.
  • Die fünfte Zeile entspricht vergleichbar dem Block Gi in Fig. 44 und zeigt den aus dem Verschachteln und Packen der in der zweiten Zeile gezeigten Videopakete V und der in der vierten Zeile gezeigten Audiopakete A resultierenden Systemstrom. Die Videopakete und Audiopakete werden in einer FIFO-Weise aus den Video- und Audio-Puffern, bezogen auf den Paket-Eingabezeitpunkt der entsprechenden Puffer verschachtelt. Mit anderen Worten werden die gepackten Daten, bezogen auf den Zeitpunkt, zu dem in dem Paket enthaltene Daten in den Video- oder Audio-Puffer eingegeben werden, gemultiplext. Der erste, gemeinsame Systemstrom SSa und der nachfolgende zweite, gemeinsame Systemstrom SSb kann unter Verwendung des oben anhand von Fig. 46 beschriebenen, ersten Verfahrens erzeugt werden.
  • Ein anderes Verfahren zum Erzeugen des ersten gemeinsamen Systemstromes SSa und des nachfolgenden zweiten, gemeinsamen Systemstromes SSb, d. h. ein von dem anhand von Fig. 46 beschriebenen Verfahren abweichendes wird unten anhand von Fig. 47 beschrieben.
  • Bei dem oben beschriebenen, ersten Verfahren wird ein Teil des kodierten Audiostromes von dem vorausgehenden Systemstrom zu dem folgenden Systemstrom verschoben. Das zweite Verfahren ist jedoch gekennzeichnet durch Verschieben eines Teiles des kodierten Video- und Audio-Stromes aus dem folgenden Systemstrom. Dieses zweite Verfahren ist insbesondere effektiv, wenn die vorausgehende Szene (Systemstrom) eine Szene aus einer Mehrfachszenenperiode ist, d. h., wenn ein Verschieben von einer von mehreren Szenen (Systemströmen) zu dem kodierten Systemstrom einer einzelnen Szene außerordentlich schwierig ist.
  • Bei diesem ersten Verfahren wird die erste GOP in dem Videostrom SSbv zu dem Videostrom SSa verschoben. Die von dem Videostrom SSbv verschobene GOP wird mit dem Videostrom SSav verbunden, um eine zeitliche Fortsetzung am Ende des Videostromes SSav sicherzustellen. Bei der zweiten GOP vom Beginn des Videostromes SSbv an, d. h., der zweiten GOP beginnend vom Anfang des Videostromes SSbv einschließlich der bereits verschobenen, ersten GOP, bezogen auf den Eingabe-Anfangszeitpunkt T2 der zuerst dekodierten Daten, werden die Audiodaten eines Audiorahmens zu dem Audiostrom SSaa verschoben, um einen Audiorahmen in dem Audiopuffer zu akkumulieren.
  • Der eine Audiorahmen aus von dem Audiostrom SSba bewegten Daten wird dann mit dem Audiostrom SSaa verbunden, um die zeitliche Fortsetzung am Ende des Audiostromes SSaa sicherzustellen.
  • Die Videodaten werden in GOP-Einheiten verschoben, da die GOP die Einheit der Videodaten-Wiedergabe ist. Audiodaten werden ebenso in Audiorahmeneinheiten verschoben, da der Audiorahmen die Einheit der Audiorahmen-Wiedergabe ist.
  • Dem obigen Ablauf folgend wird der kodierte Videostrom SSav paketiert, wie in Zeile 2 in Fig. 47 gezeigt, und der kodierte Audiostrom SSaa wird paketiert, wie in Zeile 4 gezeigt. Wie in Zeile 5 gezeigt, werden dann die Videopakete V und die Audiopakete A verschachtelt (gemultiplext), um eine mittlere Verteilung der Audiopakte in den Videopaketen in der oben bezogen auf die Paket-Eingabezeiten in die Puffer 2600 und 2800 beschriebenen FIFO-Sequenz zu unterstützen. Nach Packen und Konvertieren in einen Systemstrom werden die Daten dann auf der optischen Disk aufgezeichnet.
  • Auf die gleiche Weise wird der kodierte Videostrom SSbv paketiert, wie in Zeile 2 in Fig. 47 gezeigt, und der kodierte Audiostrom SSba wird paketiert, wie in Zeile 4 gezeigt. Wie in Zeile 5 gezeigt, werden die Videopakete V und die Audiopakete A dann verschachtelt (gemultiplext), um eine mittlere Verteilung der Audiopakete in den Videopaketen in der oben, bezogen auf die Paket-Eingabezeiten in die Puffer 2600 und 2800 beschriebenen FIFO-Sequenz zu unterstützen. Nach Packen und Konvertieren zu einem Systemstrom werden die Daten dann auf der optischen Disk aufgezeichnet.
  • Die resultierenden Systemströme SSa und SSb sind somit aufgebaut, wie in Fig. 39 gezeigt, und erlauben eine unterbrechungsfreie Wiedergabe durch den in Fig. 26 gezeigten DVD-Decodierer DCD.
  • Da zwei Audiorahmen in dem Audiopuffer akkumuliert werden können, wird der in dem Audiopuffer zum Zeitpunkt T1 gespeicherte, letzte Audiorahmen in dem Systemstrom SSa als das letzte Audiopaket in dem Systemstrom SSa während der Zwei-Rahmen-Wiedergabezeit übertragen, bevor das Dekodieren des letzten Audiorahmens beginnt. Die maximale Eingabe-Endzeit-Differenz zwischen den Videopaketen und den Audiopaketen am Ende des Systemstromes SSa ist daher die Wiedergabezeit von zwei Audiorahmen.
  • Weiterhin tritt im Audiopuffer kein Unterlauf auf, wenn die nächsten Audiodaten vor der Darstellungs-Endzeit der in dem Audiopuffer akkumulierten Audiorahmen wie zum Zeitpunkt T2 in den Audiopuffer eingegeben werden. Der Eingabezeitpunkt des ersten Audiopaketes in den Systemstrom SSb ist daher spätestens innerhalb der Wiedergabezeit der zwei Audiorahmen nach dem Zeitpunkt T2 ( = Darstellungszeit der akkumulierten Audiorahmen + Wiedergabezeit eines Audiorahmens). Die maximale Eingabe-Anfangszeit-Differenz zwischen den Videopaketen und den Audiopaketen am Beginn des Systemstromes SSb ist daher die Wiedergabezeit von zwei Audiorahmen.
  • Die nächste Ausführungsform betrifft ein Verbinden der Systemstromverzweigungen, welche durch den Systemkodierer gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung erhalten werden.
  • Der physikalische Aufbau der optischen Disk, der Gesamt-Datenaufbau der optischen Disk und der DVD-Dekodierer DCD in der vorliegenden Ausführungsform sind, wie oben beschrieben, und auf eine weitere Beschreibung davon wird somit unten verzichtet.
  • Es ist anzumerken, daß die Beschreibung der vorliegenden Ausführungsform unten auf einen einzelnen, kodierten Videostrom und einen einzelnen kodierten Audiostrom der Einfachheit halber beschränkt ist.
  • Fig. 48 zeigt den Aufbau des Endes des zweiten, gemeinsamen Systemstromes SSb und die Anfänge von zwei Eltern-Sperr-Steuerungs-Systemströmen SSc und SSd, die mit dem Ende des gemeinsamen Systemstromes SSb verbunden werden können. Es ist anzumerken, daß der gemeinsame Systemstrom SSb und einer der zwei Eltern-Sperr-Steuerungs-Systemströme SSc und SSd auf der gleichen Zeitbasis (horizontale Zeitachse T) angeordnet sind, wie in Fig. 46 gezeigt.
  • Die Systemströme SSb, SSc und SSd, die als separate Blöcke in Fig. 48 gezeigt sind, stellen den folgenden Inhalt dar, wie in Fig. 46.
  • Die fünfte Zeile in jedem Block zeigt den Aufbau der Systemströme SSb, SSc und SSd. Der Systemstrom SSb umfaßt den Videostrom SSbv und den Audiostrom SSba; der Systemstrom SSc umfaßt vergleichbar den Videostrom SScv und den Audiostrom SSca, und der Systemstrom SSd umfaßt vergleichbar den Videostrom SSdv und den Audiostrom SSda.
  • Die vierte Zeile zeigt die Audio-Paketströme A des Audiostromes SSba, des Audiostromes SSca und des Audiostromes SSda, extrahiert aus den Systemströmen SSb, SSc und SSd.
  • Die dritte Zeile zeigt den Daten-Eingabe/Ausgabe-Zustand des Audiopuffers 2800, wenn der Audiostrom SSba, der Audiostrom SSca und der Audiostrom SSda in einen in Fig. 26 gezeigten DVD-Dekodierer DCD eingegeben werden.
  • Die zweite Zeile zeigt die Video-Paketströme V des Videostromes SSbv, des Videostromes SScv und des Videostromes SSdv, extrahiert aus den Systemströmen SSb, SSc und SSd.
  • Die erste Zeile zeigt den Daten-Eingabe/Ausgabe-Status des Videopuffers 2600, wenn der Videostrom SSbv, der Videostrom SScv und der Videostrom SSdv in einen DVD-Dekodierer DCD eingegeben werden.
  • Der Audioinhalt der ersten mehreren Audiorahmen in dem Audiostrom SSca und dem Audiostrom SSda am Beginn des Systemstromes SSc und des Systemstromes SSd ist der gleiche.
  • Wenn der Systemstrom SSb in den DVD-Dekodierer DCD eingegeben wird, ist die Differenz zwischen den Eingabe-Endzeitpunkten des Videostromes SSbv und des Audiostromes SSba in die entsprechenden Puffer 2600 und 2800 gering und im wesentlichen geringer als die Wiedergabezeit von zwei Audiorahmen.
  • Wenn der Systemstrom SSc in den DVD-Dekodierer DCD eingegeben wird, ist die Differenz zwischen den Eingabe-Endzeitpunkten des Videostromes SScv und des Audiostromes SSca in die entsprechenden Puffer 2600 und 2800 gering und im wesentlichen geringer als die Wiedergabezeit von zwei Audiorahmen.
  • Wenn der Systemstrom SSd in den DVD-Dekodierer DCD eingegeben wird, ist die Differenz zwischen den Eingabe-Endzeitpunkten des Videostromes SSdv und des Audiostromes SSda in die entsprechenden Puffer 2600 und 2800 gering und meistens geringer als die Wiedergabezeit von zwei Audiorahmen.
  • Der Daten-Eingabe/Ausgabe-Status des Videopuffers 2600 ist, wenn der Systemstrom SSb verbunden ist und fortlaufend wiedergegeben wird, mit dem Systemstrom SSc oder dem Systemstrom SSd, der gleiche wie in Fig. 44 gezeigt. Insbesondere entspricht der Systemstrom SSa in Fig. 44 dem Systemstrom SSb in Fig. 48 und der Systemstrom SSb in Fig. 44 entspricht entweder dem Systemstrom SSc oder dem Systemstrom SSd in Fig. 48.
  • Wenn der Systemstrom SSb und der Systemstrom SSd oder der Systemstrom SSc in Fig. 48 unter Verwendung des in Fig. 26 gezeigten DVD-Dekodierers DCD fortlaufend wiedergegeben werden, läuft der Videopuffer ebenfalls nicht über, wie oben anhand von Fig. 44 beschrieben. Als Ergebnis kann eine unterbrechungsfreie Wiedergabe verwirklicht werden, wenn der Systemstrom SSb mit dem Systemstrom SSc oder dem Systemstrom SSd verbunden und unterbrechungsfrei wiedergegeben wird.
  • Es ist ebenfalls anzumerken, daß die Systemströme SSb, SSc und SSd unter Verwendung des anhand von Fig. 46 beschriebenen Verfahrens erzeugt werden.
  • Der Datenaufbau der Systemströme SSb, SSc und SSd, die entsprechend dem in Fig. 46 gezeigten Verfahren erzeugt werden, ist in Fig. 48 gezeigt, und eine unterbrechungsfreie Wiedergabe kann daher unter Verwendung des in Fig. 26 gezeigten DVD-Dekodierers DCD verwirklicht werden.
  • Wie bezogen auf die Audiorahmen-Bewegung in Fig. 46 beschrieben, beträgt die maximale Eingabe-Endzeitpunkt-Differenz zwischen den Videopaketen und den Audiopaketen am Ende des Systemstromes SSb meistens die Wiedergabezeit von zwei Audiorahmen und die maximale Eingabe-Anfangszeit-Differenz zwischen den Videopaketen und den Audiopaketen am Anfang des Systemstromes SSc oder SSd ist meistens die Wiedergabezeit von zwei Audiorahmen.
  • Wenn der von dem Audiostrom SSba verschobene Audiorahmen mit den Ziel- Audioströmen SSca und SSda verbunden ist, wird ein Audiowiedergabe-Stop, d. h. eine Audiowiedergabelücke vorgesehen, wenn die Verbindung hergestellt wird. Als Ergebnis können die Differenzen in der Video-Wiedergabezeit und der Audio-Wiedergabezeit jedes Wiedergabepfades basierend auf der Wiedergabelücken-Information in den nicht zwischen unterschiedlichen Programmketten PGC geteilten Systemströmen korrigiert werden. Als Ergebnis kann diese Video- und Audio- Wiedergabe-Zeitdifferenz daran gehindert werden, den Vorgang der Verbindung vorausgehender und folgender Systemströme zu beeinflussen.
  • Fig. 49 wird verwendet, um die Differenz in der Video-Wiedergabezeit und der Audio-Wiedergabezeit unterschiedlicher Wiedergabepfade gemäß der vorliegenden Ausführungsform zu beschreiben. In Fig. 49 stellt die Zeit Tb die Zeitdifferenz zwischen den Audio- und Video-Wiedergabe-Endzeitpunkten am Ende des in dem Erwachsenen-orientierten Titel und dem Kinder-orientierten Titel gemeinsamen Systemstrom vor dem Verschieben der Audiodaten dar; der Zeitpunkt Tc ist die Zeitdifferenz zwischen den Audio- und Video-Wiedergabe-Anfangszeitpunkten am Beginn des Erwachsenen-orientieren Titels vor der Audiodaten-Bewegung; und die Zeit Td ist die Zeitdifferenz zwischen den Audio- und Video-Wiedergabeanfangszeiten am Beginn des Kinder-orientierten Titels vor der Audiodaten-Bewegung.
  • Es ist möglich, die Zeitdifferenz zwischen den Audio- und Video-Wiedergabe- Anfangszeiten von wenigstens einem der mehreren unterschiedlichen Wiedergabepfade, welche der Verzweigung folgen, vor der Verzweigung an die Audio- und Video-Wiedergabe-Endzeitpunkte anzupassen. Es ist anzumerken, daß in der folgenden Beschreibung angenommen wird, daß Tb = Tc und Tb < Td ist.
  • Da Tb = Tc in dem Erwachsenen-orientierten Titel nach der Verzweigung ist, kann der von dem gemeinsamen Teil des Erwachsenen-orientierten und Kinderorientierten Titelstromes verschobene Audiorahmen mit dem Anfang des Erwachsenenorientierten Titels ohne Audio-Wiedergabelücke verbunden werden.
  • Um eine unterbrechungsfreie Wiedergabe zwischen dem Systemstrom SSb und dem Systemstrom SSc an der Verbindung zu ermöglichen, werden die Systemströme unter Verwendungen des oben bezogen auf das Bewegen von Audiodaten von einem Systemstrom SSb zu einem anderen Systemstrom SSc beschriebenen, ersten Systemstrom-Kodierungsverfahrens erzeugt.
  • Das Verfahren zum Erzeugen der Systemströme ist das gleiche wie das oben bezogen auf das in Fig. 46 beschriebene, mit der Ausnahme, daß die Systemströme SSa und SSb in Fig. 49 durch Systemströme SSb und SSc ersetzt werden und auf eine weitere Beschreibung davon wird daher unten verzichtet.
  • Da Tb < Td in dem Kinder-orientierten Titel nach der Verzweigung ist, kann der von dem gemeinsamen Teil des Erwachsenen-orientierten und Kinder-orientierten Titelstromes verschobene Audiorahmen mit dem Anfang des Kinder-orientierten Titelstromes mit einer Audio-Wiedergabelücke von nur Td-Tb verbunden werden.
  • Um die unterbrechungsfreie Wiedergabe zwischen dem Systemstrom SSb und dem Systemstrom SSd bei der Verbindung zu ermöglichen, werden die Systemströme unter Verwendung des oben unter bezug auf das Verschieben von Audiodaten von einem Systemstrom SSb zu dem anderen Systemstrom SSd beschriebenen, ersten Systemstrom-Kodierungsverfahren erzeugt.
  • Das Verfahren zum Erzeugen der Systemströme ist das gleiche wie das oben bezogen auf Fig. 46 beschriebene, mit Ausnahme dessen, daß die Systemströme SSa und SSb durch die Systemströme SSb und SSd in Fig. 49 ersetzt werden, und auf eine weitere Beschreibung davon wird daher unten verzichtet.
  • Es ist anzumerken, daß das Paketieren in diesem Fall gesteuert wird, so daß die Audiorahmen vor und hinter der Audio-Wiedergabelücke nicht in dem gleichen Paket enthalten sind. Als Ergebnis ist es möglich, die Audio-Wiedergabe-Anfangszeitinformation APTS (die Audiorahmen-Wiedergabe-Anfangszeit einschließlich der Audio-Wiedergabe-Pausenzeit) der Audiorahmen vor und nach der Audio-Wiedergabelücke in dem Systemstrom zu schreiben.
  • Das den der Audio-Wiedergabelücke unmittelbar vorausgehenen Audiorahmen enthaltende Paket ist wegen des Bedarfes klein. Während des Packungsvorganges wird daher ein Füllpaket verwendet, um eine feste Packungslänge von 2048 Byte/Packung zu erzeugen.
  • Die Audio-Wiedergabelücken-Information für die Audio-Wiedergabelücke des Systemstromes SSd in dieser Ausführungsform wird in den Systemstrom eingefügt durch Schreiben des Audiorahmen-Wiedergabe-Endzeitpunktes unmittelbar vor der Audio-Wiedergabelücke des Kinder-orientierten Titels in die Audiowiedergabe- Anhaltezeit 1 (VOB_A STP_PTM1) in das Navigationspaket NV (Fig. 20), und Schreiben der Audio-Wiedergabelücken-Zeit Td - Tb in die Audiowiedergabe- Anhalteperiode 1 (VOB_A_GAP_LEN1) in dem DSI-Paket.
  • Wenn keine Audio-Wiedergabelücke vorhanden ist, ist es möglich, zu bestimmen, daß eine Audio-Wiedergabelücke vorhanden ist durch Schreiben eines O-Wertes in die Audiowiedergabe-Anhaltezeit 1 (VOB_A_STP_PTM1).
  • Durch diesen obigen Vorgang ist es möglich, die Zeitdifferenz zwischen den unterschiedlichen Audio- und Video-Wiedergabezeiten der unterschiedlichen Wiedergabepfade in der Audio-Wiedergabelücke der nicht durch unterschiedliche. Programmketten PGC gemeinsam genutzten Systemströme einzustellen.
  • Zusätzlich können durch Schreiben der zu der Audio-Wiedergabelücke gehörenden Information in die in den Navigationspaketen NV enthaltende Wiedergabe- Steuerungsinformation die Audio-Wiedergabelücke und die zu der Audio-Wiedergabelücke gehörenden Information sämtlich innerhalb eines Systemstromes enthalten sein.
  • Durch Vorhandensein der Audio-Wiedergabelücke und der zu der Audio-Wiedergabelücke gehörenden Information in einem einzelnen Systemstrom ist es möglich, die Audio-Wiedergabelücke innerhalb des Systemstroms zu bewegen. Daher ist es möglich, die Audio-Wiedergabelücke zu einer stillen Stelle oder einer Position zu bewegen, wo sie am wenigsten wahrnehmbar ist und dadurch eine unterbrechungsfreiere Wiedergabe zu verwirklichen.
  • Der innere Aufbau des Systemkodierers 900 in dem in Fig. 25 gezeigten DVD- Kodierer ECD ist detailliert in dem Blockschaltbild in Fig. 50 gezeigt. Es ist anzumerken, daß der Systemkodierer 900 die Systemströme erzeugt.
  • Wie in Fig. 50 gezeigt, umfaßt der Systemkodierer 900 einen Elementar-Strompuffer 3301 zum vorübergehenden Speichern der Video-, Sub-Bild- und Audio-Daten, einen Video-Analysierer 3302 zum Simulieren des Videopuffer-Zustands; einen Sub-Bild-Analysierer 3308 zum Simulieren des Sub-Bild-Puffer-Status, einen Audio- Analysierer 3303 zum Simulieren des Audiopuffer-Status; einen Bewegungs- Berechner 3304 zum Berechnen der Anzahl der zu bewegenden Audiorahmen; eine Paket-Erzeugungsvorrichtung 3305 zum Paketieren der Videodaten, Audiodaten und Sub-Bild-Daten; einen Multiplexer 3306 zum Bestimmen der Paket-Anordnung und eine Paket-Erzeugungsvorrichtung 3307 zum Packen der Pakete zum Erzeugen des Systemstromes.
  • Der Elementar-Strompuffer 3301 ist an den Videostrompuffer 400, den Sub-Bild- Strompuffer 600 und den Audiostrompuffer 800, gezeigt in Fig. 26, angeschlossen und speichert vorübergehend die elementaren Ströme. Der elementare Strompuffer 3301 ist ebenfalls an die Paket-Erzeugungsvorrichtung 3305 angeschlossen.
  • Der Video-Analysierer 3302 ist an den Videostrompuffer 400 angeschlossen und empfängt den kodierten Videostrom St27, simuliert den Videopuffer-Zustand und liefert das Simulationsergebnis zu dem Bewegungs-Berechner 3304 und dem Multiplexer 3306.
  • Der Audio-Analysierer 3303 ist auf gleiche Weise an den Audiostrompuffer 800 angeschlossen, empfängt somit den kodierten Audiostrom St31, simulierte den Audiopuffer-Status und liefert das Simulationsergebnis zu dem Bewegungs-Berechner 3304 und dem Multiplexer 3306.
  • Der Sub-Bild-Analysierer 3308 ist auf gleiche Weise an den Sub-Bild-Strompuffer 600 angeschlossen, empfängt somit den kodierten Sub-Bild-Strom St29, simuliert den Sub-Bild-Puffer-Status und liefert das Simulationsergebnis zu dem Bewegungs- Berechner 3304 und dem Multiplexer 3306.
  • Basierend auf den simulierten Puffer-Zuständen berechnet der Bewegungs-Berechner 3304 die Audiobewegung (Anzahl der Audiorahmen) und die Audio-Wiedergabelücken-Information und liefert die Berechnungsergebnisse zu der Paket- Erzeugungsvorrichtung 3305 und dem Multiplexer 3306. Der Bewegungs-Berechner 3304 berechnet insbesondere die Audiodaten-Bewegung MFAp1 von der vorausgehenden Szene, die Audiodaten-Bewegung MFAp2 zu der vorausgehenden Szene, die Bewegung MGVp einer GOP von Videodaten zu der vorausgehenden Szene, die Bewegung MGVf einer GOP der Videodaten von der folgenden Szene, die Bewegung MFAf1 der Audiodaten der folgenden Szene und die Bewegung MFAf2 der Audiodaten von der folgenden Szene.
  • Die Paket-Erzeugungsvorrichtung 3305 erzeugt die Video-, Sub-Bild- und Audio- Pakete aus den Videodaten, Sub-Bild-Daten und Audiodaten, die in dem Elementar- Strompuffer 3301 gespeichert sind, entsprechend der durch den Bewegungs- Berechner 3304 berechneten Audiobewegung. Die Paket-Erzeugungsvorrichtung 3305 erzeugt ebenfalls die Wiedergabe-Steuerungsinformation, d. h., die Navigationspakete NV. Die Audio-Wiedergabelücken-Information wird ebenfalls zu diesem Zeitpunkt in die Navigationspakete NV geschrieben.
  • Basierend auf der Audio-Wiedergabelücken-Information und der durch den Video- Analysierer 3302 und den Audio-Analysierer 3303 simulierten Video- und Audiopuffer-Zustandsinformation ordnet der Multiplexer 3306 die Videopakete, Audiopakete und Navigationspakete NV neu an, d. h. multiplext sie. Der Bewegungs- Berechner 3304 arbeitet ebenfalls basierend auf der Audio-Wiedergabelücken- Information.
  • Die Paket-Erzeugungsvorrichtung 3307 packt dann die Pakete, addiert den System- Header und erzeugt den Systemstrom.
  • Es ist anzumerken, daß die Wirkungsweise des Systemkodierers 900 unten detailliert anhand von Fig. 53 beschrieben wird.
  • Die vorliegende Ausführungsform betrifft das Verbinden von Systemströmen durch Koppeln. Die nächste Ausführungsform betrifft das Verbinden von Systemströmen an dem hinteren Ende einer Mehrfachszenenperiode, d. h., Verbinden eines von mehreren vorausgehenden Systemströmen mit dem danach folgenden, gemeinsamen Systemstrom.
  • Der physikalische Aufbau der optischen Disk, der gesamte Datenaufbau der optischen Disk und der DVD-Dekodierer DCD in der vorliegenden Ausführungsform sind ausgeführt, wie oben beschrieben, und auf eine weitere Beschreibung davon wird somit unten verzichtet.
  • Es ist anzumerken, daß die Beschreibung der vorliegenden Ausführungsform unten zur Vereinfachung auf einen einzelnen, kodierten Videostrom und einen einzelnen, kodierten Audiostrom beschränkt ist.
  • Fig. 51 zeigt den Aufbau des Endes der zwei Eltern-Sperr-Steuerungs-Systemströme SSc und SSd und den Anfang des folgenden, gemeinsamen Systemstromes SSe, der mit einem der vorausgehenden Eltern-Sperr-Steuerungs-Systemströme SSc und SSd verbunden sein kann. Es ist anzumerken, daß diese Figur im wesentlichen die gleiche wie Fig. 48 ist, in welcher die Eltern-Sperr-Steuerungs- Systemströme die folgenden Systemströme sind.
  • Es ist anzumerken, daß der eine von den zwei Eltern-Sperr-Steuerungs-Systemströmen SSc und SSd und der gemeinsame Systemstrom SSe auf der gleichen Zeitbasis (horizontale Zeitachse T) angeordnet sind, wie in Fig. 51 gezeigt.
  • Die in Fig. 51 als separate Blöcke gezeigten Systemströme SSc, Ssd und SSe stellen den folgenden Inhalt dar wie in Fig. 46.
  • Die fünften Zeilen in jedem Block zeigen den Aufbau der Systemströme SSc, SSd und SSe. Der Systemstrom SSc umfaßt den Videostrom SScv und den Audiostrom SSca; der Systemstrom SSd umfaßt in gleicher Weise den Videostrom SSdv und den Audiostrom SSda, und der Systemstrom SSe umfaßt den Videostrom Ssev und den Audiostrom Ssea.
  • Die vierten Zeilen zeigen den Audio-Paketstrom A des Audiostromes SSca, den Audiostrom SSda und den Audiostrom SSea, extrahiert aus den Systemströmen SSc, SSd und SSe.
  • Die dritten Zeilen zeigen den Daten-Eingabe/Ausgabe-Zustand des Audiopuffers 2800, wenn der Audiostrom SSca, der Audiostrom SSda und der Audiostrom SSea in den DVD-Dekodierer DCD eingegeben werden.
  • Die zweiten Zeilen zeigen die Video-Paketströme V des Videostromes SScv, des Videostromes SSdv und des Videostromes SSev, extrahiert aus den Systemströmen SSc, SSd und SSe.
  • Die ersten Zeilen zeigen den Daten-Eingabe/Ausgabe-Zustand des Videopuffers 2600, wenn der Videostrom SScv, der Videostrom SSdv und der Videostrom SSev in den DVD-Dekodierer DCD eingegeben werden.
  • Am Ende der Systemströme SSc und SSd ist der Videoinhalt der wenigstens letzten GOP in jedem Videostrom SSdv und SSev der gleiche.
  • In gleicher Weise ist der Audioinhalt der letzten mehreren Audiorahmen in den Audioströmen SSca und SSda am Ende der Systemströme SSc und SSd der gleiche.
  • Wenn der Systemstrom SSc in den DVD-Dekodierer DCD eingegeben wird, ist die Differenz zwischen den Eingabe-Endzeitpunkten des Videostromes SScv und des Audiostromes SSca in die entsprechenden Puffer 2600 und 2800 gering und ist meistens geringer als die Wiedergabezeit von zwei Audiorahmen.
  • Wenn der Systemstrom SSd in den DVD-Dekodierer DCD eingegeben wird, ist die Differenz zwischen den Eingabe-Endzeitpunkten des Videostromes SSdv und des Audiostromes SSda in die entsprechenden Puffer 2600 und 2800 gering und ist meistens geringer als die Wiedergabezeit von zwei Audiorahmen.
  • Wenn der Systemstrom SSe in den DVD-Dekodierer DCD eingegeben wird, ist die Differenz zwischen den Eingabe-Endzeitpunkten des Videostromes SSev und des Audiostromes SSea in die entsprechenden Puffer 2600 und 2800 gering und ist meistens geringer als die Wiedergabezeit von zwei Audiorahmen.
  • Der Daten-Eingabe/Ausgabe-Status des Videopuffers 2600, wenn der Systemstrom Ssc oder der Systemstrom SSd verbunden ist und fortlaufend wiedergegeben wird mit dem Systemstrom SSe, ist der gleiche wie in Fig. 44 gezeigt. Der Systemstrom SSa in Fig. 44 entspricht insbesondere entweder dem Systemstrom SSc oder dem Systemstrom SSd in Fig. 51, und der Systemstrom SSb in Fig. 44 entspricht dem Systemstrom SSe in Fig. 51.
  • Eine unterbrechungsfreie Wiedergabe kann somit verwirklicht werden, wenn der Systemstrom SSc oder der Systemstrom SSd verbunden ist und fortlaufend wiedergegeben wird mit dem Systemstrom SSe.
  • Es ist ebenfalls anzumerken, daß die Systemströme SSc, SSd und SSe unter Verwendung des oben anhand von Fig. 47 beschriebenen zweiten Verfahrens erzeugt werden. Insbesondere können die Systemströme vergleichbar erzeugt werden durch Einsetzen der Systemströme SSc und SSd in Fig. 51 für den Systemstrom SSa in Fig. 47 und Einsetzen des Systemstromes SSe in Fig. 51 für den Systemstrom SSb in Fig. 47. Das Verfahren zum Erzeugen der Systemströme ist ausgeführt, wie oben anhand von Fig. 47 beschrieben.
  • Der Datenaufbau der entsprechend dem in Fig. 47 gezeigten Verfahren erzeugten Systemströme SSc, SSd und SSe ist in Fig. 51 gezeigt und eine unterbrechungsfreie Wiedergabe kann daher unter Verwendung des in Fig. 26 gezeigten DVD- Dekodierers DCD verwirklicht werden.
  • Wie bezogen auf die Audiorahmen-Bewegung in Fig. 46 beschrieben, ist die maximale Eingabe-Endzeitpunkt-Differenz zwischen den Videopaketen und den Audiopaketen am Ende der Systemströme SSc und SSc meistens die Wiedergabezeit von zwei Audiorahmen, und die maximale Eingabe-Anfangszeit-Differenz zwischen den Videopaketen und den Audiopaketen am Anfang des Systemstromes SSe ist meistens die Wiedergabezeit von zwei Audiorahmen.
  • Durch Vorsehen eines Audio-Wiedergabe-Stop, d. h. einer Audio-Wiedergabelücke, wenn Audiorahmen von dem Audiostrom SSea zu den Ziel-Audioströmen SSca und SSda bewegt und verbunden werden, können die Differenzen in der Video-Wiedergabezeit und der Audio-Wiedergabezeit jedes Wiedergabepfades innerhalb der nicht von unterschiedlichen Programmketten PGC gemeinsam verwendeten Systemströme vorhanden sein.
  • Fig. 52 wird verwendet, um die Differenz in der Video-Wiedergabezeit und der Audio-Wiedergabezeit unterschiedlicher Wiedergabepfade gemäß der vorliegenden Ausführungsform zu beschreiben. In Fig. 52 stellt die Zeit Te die Zeitdifferenz zwischen den Audio- und Video-Wiedergabe-Anfangszeiten am Anfang des Erwachsenen-orientierten Titels vor der Audiodatenbewegung dar; die Zeit Tc' ist die Zeitdifferenz zwischen den Audio- und Video-Wiedergabe-Endzeitpunkten am Ende des Erwachsenenorientierten Titelstromes; und die Zeit Td' ist die Zeitdifferenz zwischen den Audio- und Video-Wiedergabe-Endzeitpunkten am Ende des Kinder-orientierten Titelstromes vor dem Bewegen der Audiodaten.
  • Es ist möglich, die Zeitdifferenz zwischen den Audio- und Video-Wiedergabe- Endzeitpunkten von wenigstens einem der mehreren unterschiedlichen Wiedergabepfade vor der Verbindung mit der Zeitdifferenz der der Verbindung folgenden Video-Wiedergabe-Anfangszeiten in Übereinstimmung zu bringen. Es ist anzumerken, daß in der folgenden Beschreibung angenommen wird, daß Te = Tc' und Te < Td' ist.
  • Da Te = Tc' in dem Erwachsenen-orientierten Titel vor der Verbindung ist, kann der von dem gemeinsamen Teil des Erwachsenen-orientierten und des Kinder orientierten Titelstromes bewegte Audiorahmen mit dem Ende des Kinderorientierten Titelstromes ohne eine Audio-Wiedergabelücke verbunden werden. Ein unterbrechungsfreier Strom wird dann nach der Verbindung erzeugt, wie in der Figur gezeigt.
  • Da Td' < Te in dem Kinder-orientierten Titelstrom vor der Verbindung ist, kann der von dem gemeinsamen Teil des Erwachsenen-orientierten und Kinder-orientierten Titelstromes bewegte Audiorahmen mit dem Ende des Kinder-orientierten Titelstromes mit einer Audio-Wiedergabelücke von nur Te - Td' verbunden werden.
  • Um eine unterbrechungsfreie Wiedergabe zwischen dem Systemstrom SSc und dem Systemstrom SSd an der Verbindung mit dem Systemstrom SSe zu ermöglichen, werden die Systemströme unter Verwendung des oben unter Bezug auf das Bewegen des kodierten Videostromes und der Audiodaten von einem Systemstrom SSe zu dem anderen Systemstrom SSc und SSd beschriebenen, zweiten Systemstrom-Kodierungsverfahren erzeugt.
  • Das Verfahren zum Erzeugen der Systemströme ist das gleiche wie das oben anhand von Fig. 47 beschriebene mit Ausnahme dessen, daß die Systemströme SSc und Ssd in Fig. 51 für den Systemstrom SSa in Fig. 47 eingesetzt werden und der Systemstrom SSe in Fig. 51 für den Systemstrom SSb in Fig. 47 eingesetzt wird, und auf eine weitere Beschreibung davon wird daher unten verzichtet.
  • Beim Erzeugen dieser Systemströme werden die Pakete erzeugt, so daß die Audiorahmen vor und nach der Audio-Wiedergabelücke nicht in dem gleichen Paket enthalten sind. Als Ergebnis ist es möglich, die Audio-Wiedergabe-Anfangszeitinformation APTS (die Audiorahmen-Wiedergabe-Anfangszeit einschließlich der Audio-Wiedergabe-Anhaltezeit) der Audiorahmen vor und hinter der Audio-Wiedergabelücke in den Systemstrom zu schreiben.
  • Das Paket mit dem Audiorahmen, welcher der Audio-Wiedergabelücke unmittelbar vorausgeht, ist bedarfsweise klein. Während des Packungsvorgangs wird daher ein Füllpaket verwendet, um eine Packung fester Länge mit 2048 Byte/Packung zu erzeugen.
  • Die Audio-Wiedergabelücken-Information für die Audio-Wiedergabelücke des Systemstromes SSd in dieser Ausführungsform ist in den Systemstrom eingefügt durch Schreiben der Audiorahmen-Wiedergabe-Endzeit unmittelbar vor der Audio- Wiedergabelücke des Kinder-orientierten Titels in die Audio-Wiedergabe-Anhaltezeit 2 (VOB_A_STP_PTM2) in dem Navigationspaket NV (Fig. 20), und Schreiben der Audio-Wiedergabelücken-Zeit Te - Td' in die Audio-Wiedergabe-Anhalteperiode 2 (VOB_A_GAP_LEN2) in dem DSI-Paket.
  • Wenn keine Audio-Wiedergabelücke vorhanden ist, ist es möglich zu bestimmen, daß keine Audio-Wiedergabelücke vorhanden ist durch Schreiben eines O-Wertes in die Audio-Wiedergabe-Anhaltezeit 2 (VOB_A_STP_PTM2).
  • Durch den obigen Vorgang ist es möglich, die Zeitdifferenz zwischen den unterschiedlichen Audio- und Video-Wiedergabezeiten der unterschiedlichen Wiedergabepfade in der Audio-Wiedergabelücke der nicht von unterschiedlichen Programmketten PGC gemeinsam genutzten Systemströme einzustellen.
  • Durch Schreiben von zu der Audio-Wiedergabelücke gehörenden Informationen in die in den Navigationspaketen NV enthaltenen Wiedergabe-Steuerungsinformationen können die Audio-Wiedergabelücke und die zu der Audio-Wiedergabelücke gehörenden Informationen sämtlich innerhalb eines einzelnen Systemstromes enthalten sein.
  • Durch Vorhandensein der Audio-Wiedergabelücke und der zu der Audio-Wiedergabelücke gehörenden Information innerhalb eines einzelnen Systemstromes ist es weiterhin möglich, die Audio-Wiedergabelücke innerhalb des Systemstromes zu bewegen. Daher ist es möglich, die Audio-Wiedergabelücke zu einer stillen Stelle oder einer Stelle zu bewegen, wo sie möglichst wenig akustisch wahrnehmbar ist, eine unterbrechungsfreie Datenwiedergabe zu verwirklichen, die einen Unterlauf des Audiopuffers nicht erlaubt, und dadurch eine unterbrechungsfreie Wiedergabe der Audioinformationen zu verwirklichen, die für die menschliche Wahrnehmung von Daten-Kontinuität wichtig ist.
  • Die oben beschriebenen Systemströme können unter Verwendung des Systemkodierers 900 des in Fig. 25 gezeigten DVD-Kodierers ECD erzeugt werden. Der Aufbau des Systemkodierers 900 ist ausgeführt, wie oben anhand von Fig. 50 beschrieben, und auf eine weitere Beschreibung davon wird somit unten verzichtet.
  • Der Vorgang zum Erzeugen der oben beschriebenen Systemströme wird unten anhand von Fig. 53 beschrieben. Es ist anzumerken, daß dieser Vorgang die als Schritt #2200 in dem in Fig. 34 gezeigten Systemkodierer-Flußdiagramm gezeigte Systemkodierungs-Unterroutine ist.
  • Systemkodierer-Flußdiagramm
  • Der Systemkodierungsvorgang wird unten anhand von Fig. 53 beschrieben.
  • In dem Schritt #307002 werden die Bedingungen zum Verbinden mit der vorausgehenden Szene auf dem Status des Unterbrechungsfrei-Verbindungsflag des vorausgehenden VOB VOB_Fsb bewertet. Wenn eine nicht unterbrechungsfreie Verbindung mit der vorausgehenden Szene festgelegt ist, d. h., VOB_Fsb_1, geht der Ablauf über zu dem Schritt #307010.
  • In dem Schritt #307010 setzt der Bewegungs-Berechner 3304 (Fig. 50) die Audiodatenbewegung MFAp1 aus der vorausgehenden Szene, d. h., die Anzahl der bewegten Audiorahmen auf 0, basierend auf der VOB_Fsb_1-Angabe. Der Ablauf geht dann über zu dem Schritt #307014.
  • Wenn eine unterbrechungsfreie Verbindung mit der vorausgehenden Szene in dem Schritt #307002 festgelegt ist, d. h., VOB_Fsb = 1, geht der Ablauf über zu dem Schritt #307004.
  • In dem Schritt #307004 wird bestimmt, ob die vorausgehende Szene sich in einer Mehrfachszenenperiode befindet. Wenn dies nicht der Fall ist, geht der Ablauf über zu dem Schritt #307012; wenn dies der Fall ist, geht der Ablauf über zu dem Schritt #307006.
  • In dem Schritt #307012 wird die Audiodatenbewegung MFAp1 aus der vorausgehenden Szene berechnet und der Ablauf geht über zu dem Schritt #307014. Es ist anzumerken, daß das Verfahren zum Berechnen der Audiodatenbewegung MFAp 1 nach diesem Vorgang anhand von Fig. 54 unten beschrieben wird.
  • In dem Schritt #307006 wird die Bewegung MGVp einer GOP mit Videodaten zu der vorausgehenden Szene berechnet, und der Ablauf geht über zu dem Schritt #307008. Wenn die vorausgehende Szene eine Mehrfachszenenperiode ist, ist es nicht möglich, die Audiodatenbewegung MFAp1 einheitlich zu berechnen, wie in Schritt #307012. Als Ergebnis wird die Bewegung einer GOP mit Videodaten von dem Anfang der gegenwärtigen Szene zu der vorausgehenden Szene berechnet.
  • In dem Schritt #307008 wird die Audiodatenbewegung MFAp2 zu der folgenden Szene berechnet, und der Ablauf geht über zu dem Schritt #307014. Es ist anzu merken, daß das Verfahren zum Berechnen der Audiodatenbewegung MFAp2 nach diesem Vorgang anhand von Fig. 55 unten beschrieben wird.
  • In dem Schritt #307014 werden die Bedingungen zum Verbinden mit der folgenden Szene basierend auf dem Status des Unterbrechungfrei-Verbindungsflag des folgenden VOB VOB_Fsf bewertet. Wenn eine nicht unterbrechungsfreie Verbindung mit der folgenden Szene festgelegt ist, d. h. VOB_Fsf_1, geht der Ablauf über zu dem Schritt #307022. Wenn eine unterbrechungsfreie Verbindung mit der folgenden Szene festgelegt ist, d. h., VOB_Fsf = 1, geht der Ablauf über zu dem Schritt #307016.
  • In dem Schritt #307022 setzt der Bewegungs-Berechner 3304 (Fig. 50) die Audiodatenbewegung MFAp1 zu der folgenden Szene basierend auf der VOB_Fsf_1- Angabe auf 0. Der Ablauf geht dann über zu dem Schritt #307026.
  • In dem Schritt 307016 wird basierd auf dem Mehrfachszenenflag VOB_Fp bestimmt, ob die folgende Szene sich in einer Mehrfachszenenperiode befindet. Wenn dies nicht der Fall ist, d. h. VOB_Fp_1, geht der Ablauf über zu dem Schritt #307024; wenn dies der Fall ist, d. h., VOB_Fp = 1, geht der Ablauf über zu dem Schritt #307018.
  • In dem Schritt #307024 wird die Audiodatenbewegung MFAp1, MFAp2 der folgenden Szene berechnet, und der Ablauf geht über zu dem Schritt #307026. Es ist anzumerken, daß das Verfahren zum Berechnen der Audiodatenbewegung MFAp2 das gleiche wie das in dem Schritt #307012 verwendete ist.
  • In dem Schritt #307018 wird die Bewegung MGVf einer GOP mit Videodaten aus der folgenden Szene berechnet, und der Ablauf geht über zu dem Schritt #307020.
  • In dem Schritt #307020 wird die Audiodatenbewegung MFAp2 aus der folgenden Szene berechnet und der Ablauf geht über zu dem Schritt #307026. Es ist anzumerken, daß das Verfahren zum Berechnen der Audiodatenbewegung MFAf2 das gleiche ist, wie das in dem Schritt #307008 verwendete.
  • In dem Schritt #307026 werden die Audiowiedergabe-Anhaltezeit 1 (VOB_A_STP_PTM1) und die Audiowiedergabe-Anhalteperiode 1 (VOB_A_GAP_LEN 1) aus den Audio- und Video-Endzeitpunkten der vorausgehenden Szene berechnet. Der Ablauf geht dann über zu dem Schritt #307028.
  • In dem Schritt #307028 werden die Audiowiedergabe-Anhaltezeit 2 (VOB_A_STP_PTM2) und die Audiowiedergabe-Anhalteperiode 2 (VOB_A_GAP_LEN2) aus den Audio- und Video-Anfangszeiten in der folgenden Szene berechnet. Der Ablauf geht dann über zu dem Schritt #307030.
  • In dem Schritt #307030 werden die Audiodaten einschließlich der Audiobewegung paketiert, und der Ablauf geht über zu dem Schritt #307032.
  • In dem Schritt #307032 werden die Videodaten einschließlich der Videobewegung paketiert, und der Ablauf geht über zu dem Schritt #307034.
  • In dem Schritt #307034 wird das Navigationspaket NV erzeugt, die Audiowiedergabe-Anhaltezeit 1 (VOB_A_STP_PTM1) und die Audiowiedergabe-Anhalteperiode 1 (VOB_A_GAP_LEN1) und die Audiowiedergabe-Anhaltezeit 2 (VOB_A_STPPTM2) und die Audiowiedergabe-Anhalteperiode 2 (VOB_A_GAP_LEN2) werden aufgezeichnet, und der Ablauf geht über zu dem Schritt #307036.
  • In dem Schritt #307036 werden die Videopakete V, die Audiopakete A und das Navigationspaket NV gemultiplext.
  • Wie oben beschrieben, ist es somit möglich, Audio- und Video-Daten zwischen Szenen entsprechend den Bedingungen für Verbindungen mit den vorausgehenden und folgenden Szenen zu bewegen und den Systemstrom entsprechend zu erzeugen.
  • Das Verfahren zum Berechnen der Audiodatenbewegung MFAp1 in Schritt #307012 oben wird unten anhand von Fig. 54 beschrieben.
  • In Fig. 54 bezeichnet Video 1 die Videodaten am Ende der vorausgehenden Szene, wobei die Video 1-Linie die Änderung in der Videodaten-Akkumulierung am Ende der vorausgehenden Szene in dem Videopuffer 2600 des DVD-Dekodierers DCD darstellt; Video 2 bezeichnet auf gleiche Weise die Videodaten am Beginn der Szene, wobei die Video 2-Linie die Änderung in der Videodaten-Akkumulation in dem Videopuffer 2600 am Beginn der Szene darstellt.
  • Es ist anzumerken, daß Video 1 und Video 2 beide den Zustand des Videopuffers vor der Systemstromverbindung darstellen. VDTS ist der Zeitpunkt, zu dem Video 2 erstmalig dekodiert wird; tv ist der Video 2-Übertragungs-Anfangszeitpunkt und wird aus der Gleichung 1 unten berechnet, wobei die Videopuffer-Verifizierer- Verzögerung vbv delay definiert ist als die Zeit vom Beginn der Dateneingabe in den Videopuffer zu dem Beginn der Dekodierung. Wenn die Dekodierung bei vbv delay nach dem Beginn der Dateneingabe in den Videopuffer beginnt, kann ein Videopuffer-Datenunterlaufzustand zuverlässig während des folgenden Dekodierungsvorganges verhindert werden.
  • tv = VDTS - vbv_delay [1]
  • Audio 1 zeigt die Übertragung von Audiorahmen am Ende der vorausgehenden Szene zu dem Audiopuffer wobei af1, af2, af3 und af4 die in Audio 1 enthaltenen Audiorahmen sind. Es ist anzumerken, daß der Audiorahmen die Kodierungs-Verarbeitungseinheit ist und die Audiodaten für einen definierten Zeitabschnitt (Af) enthält.
  • Audio 2 zeigt die Übertragung von Audiorahmen am Beginn der Szene zu dem Audiopuffer, wobei af5 und af6 die in Audio 2 enthaltenen Audiorahmen sind.
  • APTS ist der Zeitpunkt, zu dem der Ton in Audio 2 zuerst wiedergegeben wird.
  • Die Audiorahmen (af3, af4), die während der Periode APTS vom Zeitpunkt tv übertragen werden, d. h., die Anzahl der Audiorahmen (Amove) MFAp1, die angehängt an Audio 1 nach dem Anfang der Video 2-Übertragung übertragen werden, werden entsprechend der Gleichung 2 berechnet.
  • Amove = (APTS - tv - Af)/Af [2]
  • Die Audiodatenbewegung (Anzahl der Audiorahmen) von der vorausgehenden Szene wird somit berechnet.
  • Das Verfahren zum Berechnen der Audiodatenbewegung MFAp2 zu der folgenden Szene in Schritt #307008 oben wird unten anhand von Fig. 55 beschrieben.
  • Wie in Fig. 54 bezeichnet Video 1 die Videodaten am Ende der vorausgehenden Szene und Video 2 bezeichnet vergleichbar die Videodaten am Anfang der Szene. Es ist anzumerken, daß Video 1 und Video 2 beide den Videopuffer-Status vor der Szenenverbindung zeigen. VDTS ist der Zeitpunkt, zu dem Video 2 erstmalig dekodiert wird; GOP_move sind die GOP-Videodaten GMVp, die in dem Schritt #307006 bewegt werden; tv ist der Zeitpunkt, zu dem die Video 2-Übertragung beginnt, nach Bewegen der GOP_move-Menge von GOP und kann einheitlich berechnet werden.
  • Audio 1 zeigt die Übertragung von Audiorahmen am Ende der vorausgehenden Szene zu dem Audiopuffer, wobei af1, af2, af3 und af4 die in Audio 1 enthaltenen Audiorahmen sind. Es ist anzumerken, daß der Audiorahmen die Kodierungs-Verarbeitungseinheit ist und die Audiodaten für einen definierten Zeitabschnitt (Af) enthält.
  • Audio 2 zeigt die Übertragung von Audiorahmen am Beginn der Szene zu dem Audiopuffer, wobei af5, af6 und af7 die in Audio 2 enthaltenen Audiorahmen sind.
  • APTS ist der Zeitpunkt, zu dem der Ton in Audio 2 erstmalig wiedergegeben wird.
  • Die Audiorahmen (af5, af6, af7), die während der Periode APTS vom Zeitpunkt tv an übertragen werden, d. h., die Anzahl der Audiorahmen (Amove) MFAp1, welche vor dem Anfang der Video 2-Übertragung nach Bewegen der GOP move-Menge von GOP an Audio 2 angefügt übertragen werden, werden gemäß Gleichung 3 berechnet.
  • Amove = (APTS - tv + 2Af)/Af [3]
  • Die Audiodatenbewegung (Anzahl der Audiorahmen) zu der vorausgehenden Szene ist somit berechnet.
  • Audiolücken-Wiederpabeverarbeitung
  • Während der Grundaufbau des in der vorliegenden Ausführungsform verwendeten DVD-Dekodierers DCD ausgebildet ist, wie in Fig. 26 gezeigt, ist der Synchronisierer 2900 aufgebaut, wie in Fig. 56 gezeigt, um die Audio-Wiedergabelücke zu verarbeiten.
  • Wie in Fig. 56 gezeigt, einem Blockschaltbild des in Fig. 26 gezeigten Synchronisierers 2900, umfaßt der Synchronisierer 2900 einen STC-Generator 2950, eine Audiodekodierer-Steuerung 2952 und einen Audiodekodierer-Steuerungsdatenpuffer 2954.
  • Der STC-Generator 2950 erzeugt den als Referenztakt für die Dekodierungssteuerung verwendeten Systemtakt STC basierend auf dem durch die Dekodierungs- Systemsteuerung 2300 gesetzten Systemtaktreferenz-SCR-Wert.
  • Die Audiodekodierer-Steuerung 2952 steuert den Dekodierungsanfang und das Anhalten des Audiodekodierers 3200 basierend auf dem STC-Wert von dem STC- Generator 2950 und der Steuerungsinformation aus dem Audiodekodierer- Steuerungsdatenpuffer 2954.
  • Der Audiodekodierer-Steuerungsdatenpuffer 2954 speichert die Werte der Audiodekodierungs-Steuerungsinformation (wie VOB_A_STP_PTM und VOB_A_GAP_LEN), die von der Dekodierungs-Systemsteuerung 2300 gesetzt werden.
  • Die Wirkungsweise des somit umfaßten Synchronisierers 2900 gemäß der vorliegenden Ausführungsform wird unten anhand von Fig. 26 und Fig. 56 beschrieben.
  • Der Gesamtbetrieb des DVD-Dekodierers DCD in Fig. 26 ist, wie vorstehend beschrieben und auf eine weitere Beschreibung davon wird daher unten verzichtet. Die auf einen bestimmten Vorgang der vorliegenden Auführungsform bezogene Verarbeitung wird unten beschrieben.
  • In Fig. 26 liest die Dekodierungs-Systemsteuerung 2300 die Audiowiedergabe- Anhaltezeit 1 (VOB_A_STP_PTM 1), die Audiowiedergabe-Anhalteperiode 1 (VOB_A_GAP_LEN 1), die Audiowiedergabe-Anhaltezeit 2 (VOB_A_STP_PTM2) und die Audiowiedergabe-Anhalteperiode 2 (VOB_A_GAP_LEN2) aus dem DSI-Packet in dem Navigationspacket NV und speichert diese vier Werte als die Audiodekodierungs-Wiedergabe-Anhalteinformation in dem Audiodekodierungs-Steuerungsdatenpuffer 2954 des Synchronisierers 2900.
  • Wenn die von dem STC-Generator 2950 gelieferte Zeit mit der Audiowiedergabe- Anhaltezeit 1 (VOB_A_STP_PTM1), die in dem Audiodekodierer-Steuerungsdatenpuffer 2954 gespeichert ist, übereinstimmt, hält die Audiodekodierer-Steuerung 2952 den Audiodekodierer 3200 für die Audiowiedergabe-Anhalteperiode 1 (VOB_A_GAP_LEN1), die in dem Audiodekodierer-Steuerungsdatenpuffer 2954 gespeichert ist, an. Wenn die von dem STC-Generator 2950 gelieferte Zeit mit der in dem Audiodekodierer-Steuerungsdatenpuffer 2954 gespeicherten Audiowiedergabe-Anhaltezeit 2 (VOB_A_STP_PTM2) übereinstimmt, hält die Audiodekodierer- Steuerung 2952 den Audiodekodierer 3200 für die in dem Audiodekodierer-Steuerungsdatenpuffer 2954 gespeicherte Audiowiedergabe-Anhalteperiode 2 (VOB_A_GAP_LEN2) an.
  • Da somit ein STC-Generator 2950 und eine Audio-Dekodierungssteuerung 2952 enthalten ist, ist der Synchronisierer 2900 in der Lage, in dem Systemstrom einer Mehrfachszenenperiode enthaltene Audio-Wiedergabelücken beim Verbinden eines Stromes aus einer Mehrfachszenenperiode mit einem gemeinsamen Szenenstrom zu verarbeiten.
  • Es ist anzumerken, daß eine Audio-Wiedergabelücke in der vorliegenden Erfindung in einer oder beiden der VOB 6 und VOB 7 entsprechend den Szenen 6 und 7 in einer Eltern-Sperr-Steuerung-Szenenperiode auftreten kann, wie in Fig. 21 gezeigt.
  • Der durch die Dekodierungs-Systemsteuerung 2300 der vorliegenden Erfindung ausgeführte Dekodierungsvorgang wird unten kurz anhand von Fig. 60, Fig. 61, Fig. 62, Fig. 63 und Fig. 64 beschrieben. Der von der Audio-Dekodierungssteuerung 2952 der vorliegenden Erfindung ausgeführte Vorgang wird dann anhand von Fig. 57 beschrieben.
  • In Fig. 60 wird der von dem Benutzer selektierte Titel aus dem auf der Digital- Video-Disk gespeicherten Multimedia-Bitstrom MBS extrahiert und die VTS_PGCI #i Programmkette (PGC)-Daten zum Wiedergeben des ausgewählten Titels werden durch die Dekodierungs-Systemsteuerung 2300 des DVD-Dekodierers DCD in dem Schritt #310214 extrahiert. In dem Schritt #310216 wird der selektierte Titel dann basierend auf der extrahierten VTS_PGCI #i Programmketten-(PGC)-Information wiedergegeben. Der in Fig. 60 gezeigte Vorgang wurde bereits detailliert oben beschrieben, und auf eine weitere Beschreibung davon wird daher unten verzichtet.
  • Der Vorgang zum Wiedergeben der VTS_PGCI #i-Programmkette in dem Schritt #310216, Fig. 60, ist in Fig. 61 gezeigt und unten beschrieben.
  • In dem Schritt #31030 wird die in Fig. 58 gezeigte Dekodierungs-Systemtabelle gesetzt. Der Übertragungsvorgang zu dem Strompuffer 2400 (Schritt #31032) und der Datendekodierungsvorgang in den Strompuffer 2400 (Schritt #31034) werden parallel ausgeführt. Es ist anzumerken, daß der Vorgang in Schritt #31032 auf der Zellen-Wiedergabeinformation in den PGC-Informationseinträgen C_PBI #j basiert. Der in Fig. 61 gezeigte Vorgang wurde bereits oben detailliert beschrieben und auf eine weitere Beschreibung davon wird daher unten verzichtet.
  • Die für jeden Zellenwiedergabe-Informationseintrag (PGClnformationseinträge C_BI #j) durch den Vorgang von Schritt #31032 ausgeführte Strompuffer-Datenübertragung wird unten anhand von Fig. 62 noch detaillierter beschrieben. Da eine Eltern-Sperr-Steuerungsszene in der vorliegenden Ausführungsform verarbeitet wird, gibt der Schritt #31040 in Fig. 62 NEIN zurück und der Ablauf geht über zu dem Schritt #31044. Der in Fig. 62 gezeigte Vorgang wurde bereits oben detailliert beschrieben und auf eine weitere Beschreibung davon wird daher unten verzichtet.
  • Der Nicht-Mehrfachwinkel-Zellen-Dekodierungsvorgang, d. h., der als Schritt #31044, Fig. 62, ausgeführte Eltern-Sperr-Steuerungs-Zellendekodierungsvorgang wird weiter unten anhand von Fig. 63 beschrieben. Der Schritt #31050 bewertet das Verschachtelungs-Zuordungsflag IAF_reg zum Bestimmen, ob sich die Zelle in einem verschachtelten Block befindet. Wegen der unterbrechungsfreien Verbindung wird der durch die vorliegende Erfindung verarbeitete Eltern-Sperr-Steuerungs-Titel in einem verschachtelten Block angeordnet, der Schritt #31050 leitet die Steuerung zu dem Schritt #31052. Der in Fig. 63 gezeigte Vorgang wurde bereits detailliert oben beschrieben und auf eine weitere Beschreibung davon wird somit unten verzichtet.
  • Der Nicht-Mehrfachwinkel-Verschachtelungsblock-Vorgang (Schritt#31052, Fig. 63) wird weiter unten anhand von Fig. 64 beschrieben. In dem Schritt #31062 werden die Audiowiedergabe-Anhaltezeit 1 (VOB_A_STP_PTM1), die Audiowiedergabe-Anhalteperiode 1 (VOB_A_GAP_LEN1), die Audiowiedergabe-Anhaltezeit 2 (VOB_A_STP_PTM2) und die Audiowiedergabe-Anhalteperiode 2 (VOB_A_GAP_LEN2) als die Tabellendaten aus dem DSI-Packet in dem Navigationspaket NV (Fig. 20) extrahiert und in dem Audiodekodierer-Steuerungsdatenpuffer 2954 (Fig. 56) gespeichert. Der Ablauf geht dann über zu dem Schritt #31064, wobei eine VOB-Datenübertragung fortgesetzt wird, bis in dem Schritt #31066 bestimmt ist, daß sämtliche Verschachtelungseinheiten in dem verschachtelten Block übertragen wurden.
  • Der von der Audio-Dekodierersteuerung 2952 in Fig. 56 ausgeführte Vorgang wird als nächstes anhand von Fig. 57 beschrieben.
  • In dem Schritt #202301 liest die Audiodekodierer-Steuerung 2952 die Audiowiedergabe-Anhaltezeit 1 (VOB_A_STP_PTM1) aus dem Audio-Dekodierer-Steue rungsdatenpuffer 2954 und vergleicht VOB_A_STP_PTM1 mit dem Systemtakt STC von dem STC-Generator 2950. Wenn die Werte übereinstimmen, d. h., ein JA zurückgegeben wird, geht der Ablauf über zu dem Schritt #202302; wenn die Werte nicht übereinstimmen, d. h., ein NEIN wird zurückgegeben, geht der Ablauf über zu dem Schritt #202303.
  • In dem Schritt #202302 wird die Audiowiedergabe-Anhalteperiode 1 (VOB_A_GAP_LEN1) aus dem Audiodekodierer-Steuerungsdatenpuffer 2954 gelesen und der Audiodekodierer 3200 wird für diese Periode angehalten.
  • In dem Schritt #202303 liest die Audiodekodierersteuerung 2952 die Audiowiedergabe-Anhaltezeit 2 (VOB_A_STP_PTM2) aus dem Audiodekodierer-Steuerungsdatenpuffer 2954 und vergleicht VOB_A_STP_PTM2 mit dem Systemtakt STC von dem STC-Generator 2950. Wenn die Werte übereinstimmen, d. h., ein JA zurückgegeben wird, geht der Ablauf über zu dem Schritt #202304; wenn die Werte nicht übereinstimmen, d. h., ein NEIN wird zurückgegeben, geht der Ablauf zurück zu dem Schritt #202301.
  • In dem Schritt #202304 wird die Audiowiedergabe-Anhalteperiode 2 (VOB_A_GAP_LEN2) aus dem Audiodekodierer-Steuerungsdatenpuffer 2954 gelesen und der Audiodekodierer 3200 wird für diese Periode angehalten.
  • Die Audiowiedergabe-Anhaltezeitinformation (VOB_A_STP_PTM und VOB_A_GAP_LEN) wird somit in das DSI-Paket des Navigationspaketes NV in dem Systemstrom geschrieben. Basierend auf dieser Audiowiedergabe-Anhaltezeitinformation ist der DVD-Dekodierer DCD mit einem Audiodekodierer-Steuerungsdatenpuffer 2954 und einer Audiodekodierersteuerung 2952 zum Steuern des Audiostrom-Dekodierungsvorgangs in der Lage, in den Eltern-Sperr-Steuerungsszenen gefundene Audio-Wiedergabelücken zu verarbeiten, d. h., in von mehreren unterschiedlichen Programmketten gemeinsam genutzten Systemströmen, wie in Fig. 30 gezeigt. Daher ist es möglich, eine intermittierende Videowiedergabe (Video-Einfrieren) und eine intermittierende Audiowiedergabe (mute) zu verhindern, welche durch einen Datenunterlaufzustand in dem Videopuffer oder Audiopuffer bewirkt werden, die resultieren, wenn ein gemeinsamer Systemstrom an eine von mehreren Systemstrom-Verzweigungen von (folgenden) oder zu (vorausgehenden) des einen Systemstroms verbunden sind.
  • Es ist anzumerken, daß, während Audiodaten in der obigen Ausführungsform in Audiorahmeneinheiten bewegt werden, die gleiche Wirkung erzielt werden kann, wenn Audiorahmen in kleinere Einheiten aufgetrennt werden, die als Bewegungseinheit verwendet werden, um Systemströme zu verbinden und fortlaufend wiederzugeben.
  • Während Videodaten weiterhin in GOP-Einheiten entsprechend dem zweiten Systemstrom-Erzeugungsverfahren in der obigen Ausführungsform bewegt werden, kann die gleiche Wirkung erreicht werden, wenn die GOP-Einheiten in kleinere Einheiten aufgetrennt werden, welche als die Bewegungseinheiten zum Verbinden und fortlaufenden Wiedergeben von Systemströmen verwendet werden.
  • Während nur Audiodaten entsprechend dem ersten Systemstrom-Erzeugungsverfahren in der obigen Ausführungsform bewegt werden, kann die gleiche Wirkung weiterhin erreicht werden, wenn ebenfalls Videodaten von dem Systemstrom, welcher der Verbindung vorausgeht, zu dem der Verbindung folgenden Systemstrom bewegt werden.
  • Die vorliegende Ausführungsform wurde ebenfalls anhand nur eines Videostromes und eines Audiostromes beschrieben, aber die Erfindung soll nicht darauf beschränkt sein.
  • Während die vorliegende Erfindung unter besonderer Bezugnahme auf Verzweigen und Verbinden von Strömen beschrieben wurde, wie es zum Implementieren eines Eltern-Sperr-Steuerungsmerkmals verwendet wird, kann eine unterbrechungsfreie, fortlaufende Wiedergabe ebenfalls in Mehrfachwinkel-Szenenperioden verwirklicht werden, in welchen die mehreren Videoströme unterschiedliche Perspektiven (Ansichten) des gleichen Titelinhalts bereitstellen und optische Multimedia-Disks verwenden, auf welchen wie oben beschrieben aufgebaute Systemströme aufgezeichnet werden.
  • Das oben beschriebene, zweite Systemstrom-Erzeugungsverfahren wird beschrieben als bei Verbindungen von einem zu mehreren Systemströmen zu einem einzelnen gemeinsamen Systemstrom in der vorliegenden Ausführungsform verwendet. Die gleiche Wirkung kann jedoch erreicht werden durch Verwenden des oben beschriebenen, ersten Systemstrom-Erzeugungsverfahrens, wenn die gleiche Audioinformation nicht von unterschiedlichen Programmketten gemeinsam genutzt in den Systemströmen aufgezeichnet ist.
  • Die vorliegende Erfindung wurde ebenfalls unter Verwendung einer Digital-Video- Disk DVD beschrieben, die gleiche Wirkung kann aber verwirklicht werden unter Verwendung anderer optischer Disks, die Systemströme mit dem gleichen Datenaufbau wie dem in der vorliegenden Ausführungsform oben beschriebenen aufzeichnen.
  • Bei dem Audio- und Video-Datenverschachtelungsverfahren der vorliegenden Ausführungsform beinhalten die zum Dekodierungszeitpunkt eingegebenen Audiodaten nur die in dem nächsten Audiodekodierungsvorgang verwendeten Daten und jeden Rest von dem Paket-Übertragungsvorgang (etwa 2 kB). Insofern, wie ein Audiopuffer-Unterlaufzustand nicht auftritt, d. h., soweit wie das Verschachtelungsverfahren die Audio- und Videodaten zum Übertragen von Audiodaten in einer Menge und einer Frequenz verschachtelt, die einen Audiopuffer-Unterlaufzustand verhindert, kann jedoch die gleiche Wirkung erreicht werden.
  • Zu der Audio-Wiedergabelücke bei einer Systemstrom-Verzweigung gehörende Informationen werden in die Audiowiedergabe-Anhaltezeit 1 (VOB_A_STP_PTM1) und die Audiowiedergabe-Anhalteperiode 1 (VOB_A_GAP_LEN1)-Felder der Navigationspakete NV in der vorliegenden Ausführungsform geschrieben, diese Audio- Wiedergabelücken-Information kann aber in die Audiowiedergabe-Anhaltezeit 2 (VOB_A_STP_PTM2) und die Audiowiedergabe-Anhalteperiode 2 (VOB_A_GAP_LEN2)-Felder geschrieben werden.
  • Zu der Audio-Wiedergabelücke bei der Systemstromverbindung gehörende Informationen werden in die Audiowiedergabe-Anhaltezeit 2 (VOB_A_STP_PTM2) und die Audiowiedergabe-Anhalteperiode 2 (VOB_A_GAP_LEN2)-Felder des Navigationspaketes NV in der vorliegenden Ausführungsform geschrieben, diese Audio-Wiedergabelücken-Information kann aber in die Audiowiedergabe-Anhaltezeit 1 (VOB_A_STP_PTM1) und Audiowiedergabe-Anhalteperiode 1 (VOB_A_GAP_LEN1)- Felder geschrieben werden.
  • Der Unterschied zwischen den Eingabe-Entzeitpunkten in die entsprechenden Puffer der Audio- und Videodaten in dem Systemstrom wird definiert als Wiedergabezeit der zwei Audiorahmen in dieser Ausführungsform. Wenn jedoch das Bild mit variabler Bitgeschwindigkeits-(VBR)-Kodierung kodiert ist und die Video-Bitgeschwindigkeit vor der Verbindung verringert wird, kann die gleiche Wirkung erreicht werden, auch wenn die Eingabe-Anfangszeit der Videodaten in den Videopuffer vorverlegt ist.
  • Der Unterschied zwischen den Eingabe-Anfangszeitpunkten in die entsprechenden Puffer der Audio- und Videodaten in dem Systemstrom ist meistens definiert als die Wiedergabezeit von zwei Audiorahmen in dieser Ausführungsform. Wenn jedoch das Bild mit einer variablen Bitgeschwindigkeits-(VBR)-Kodierung kodiert ist und die Video-Bitgeschwindigkeit vor der Verbindung verringert wird, kann die gleiche Wirkung erreicht werden, auch wenn der Eingabe-Endzeitpunkt der Videodaten in den Videopuffer verzögert ist.
  • Die vorliegende Ausführungsform wird ebenfalls beschrieben als einen Audiorahmen in dem Audiopuffer akkumulierend, wenn Systemströme verbunden werden, die vorliegende Erfindung soll aber nicht darauf beschränkt sein und die gleichen Wirkungen können erreicht werden, wenn eine andere Audiopuffer-Akkumulationsebene verwendet wird, soweit ein Audiopuffer-Überlaufzustand nicht induziert wird.
  • Während weiterhin Videodaten in der obigen Ausführungsform in GOP-Einheiten bewegt werden, wenn die Videodaten-Eingabe-Bitgeschwindigkeiten in den verbundenen Systemströmen differieren, kann die gleiche Wirkung erreicht werden durch Kodieren der zu bewegenden GOP mit der Eingabe-Bitgeschwindigkeit der Videodaten in dem Systemstrom, zu welchem die GOP bewegt wird.
  • Die komprimierten Audio- und Videoströme werden ebenfalls zur Datenbewegung in der obigen Ausführungsform verwendet, die gleiche Wirkung kann aber erreicht werden durch Zuerstbewegen der Daten in der vor-kodierten Materialebene.
  • In der obigen Ausführungsform wird ebenfalls nur eine GOP bewegt, die gleiche Wirkung kann aber erreicht werden durch Bewegen von zwei oder mehr, d. h., mehreren GOP.
  • Daher ist es durch die somit beschriebene, vorliegende Erfindung möglich, Systemströme aus unterschiedlichen Programmketten als einen einzelnen fortlaufenden Titel ohne intermittierende Videodarstellungen (Einfrieren) oder intermittierende Audiodarstellungen (Verzerrungen) wiederzugeben, wenn mehrere Systemströme von einer optischen Multimedia-Disk verbunden und fortlaufend wiedergegeben werden, welche mit den zu einem einzelnen Systemstrom verschachtelten Videopaketen und Audiopaketen aufgezeichnet sind, welcher die folgenden Bedingungen erfüllt:
  • (a) Die Differenz zwischen der Eingabe-Anfangszeit des ersten Videopaketes und der Eingabe-Anfangszeit des ersten Audiopaketes am Beginn des Systemstromes ist geringer als die Wiedergabezeit der Anzahl der Audiorahmen, die in dem Audiopuffer gespeichert werden kann, plus ein Audiorahmen, und
  • (b) die Differenz zwischen dem Eingabe-Endzeitpunkt des letzten Videopaketes und dem Eingabe-Endzeitpunkt des letzten Audiopaketes am Ende des Systemstromes ist geringer als die Wiedergabezeit der Anzahl der Audiorahmen, die in dem Audiopuffer gespeichert werden können, plus ein Audiorahmen.
  • Unter Verwendung einer optischen Multimedia-Disk, welche mit einem Systemstrom mit mehreren Szenario-Verzweigungen beschrieben ist, d. h., mehreren Systemströmen, welche von einem einzelnen Systemstrom verzweigen, mit welchem die mehreren Systemströme verbunden sein können, wobei wenigstens der gleiche Audioinhalt in einem oder mehreren Audiorahmen am Beginn von jedem der mehreren Systemströme aufgezeichnet ist, welche mit dem einzelnen Systemstrom verbunden sind, ist es insbesondere möglich, mehrere Szenario-Titel als einzelne natürliche Titel ohne Anhalten der Videodarstellung (Video-Einfrieren) bei der Systemstromverbindung wiederzugeben, wenn die Systemströme verbunden und fortlaufend wiedergegeben werden.
  • Bei der Verwendung einer optischen Multimedia-Disk, auf welcher ein Systemstrom mit mehreren Szenario-Verbindungen aufgezeichnet ist, d. h., mehreren Systemströmen, die mit einem nachfolgenden einzelnen Systemstrom verbunden sind, wobei wenigstens der gleiche Videoinhalt in einem oder mehreren Videorahmen am Anfang von jedem der mehreren Systemströme, die mit dem einzelnen Systemstromende von jedem der mehreren Systemströme, die mit dem einzelnen Systemstrom verbunden sind, oder dem Anfang des einzelnen Systemstromes, der mit den mehreren Systemströmen verbunden ist, aufgezeichnet sind, ist es insbesondere möglich, mehrere Szenariotitel als einzelne natürliche Titel wiederzugeben, ohne die Videodarstellung anzuhalten (Video-Einfrieren) bei der Systemstromverbindung, wenn Systemströme verbunden und fortlaufend wiedergegeben werden.
  • Video- oder Audio-Puffer-Unterlaufzustände bei Systemstromverbindungen, d. h., intermittierenden Videodarstellungen (Video-Einfrieren) oder intermittierende Audiodarstellung (Audio-Verzerrung), die aus der Zeitdifferenz in den Video- und Audio-Wiedergabezeiten unterschiedlicher Wiedergabepfade resultieren, können durch eine DVD-Wiedergabevorrichtung ebenfalls verhindert werden, wobei eine Audio-Wiedergabelücken-Information in der Wiedergabe-Steuerungsinformation aufgezeichnet wird und die Audio-Wiedergabelücken-Information wird von einer Audiodekodierer-Steuerung verwendet, um den Audiodekodiererbetrieb geeignet in Gang zu setzen und anzuhalten.
  • Durch Einfügen einer Zeitdifferenz in den Video- und Audio-Wiedergabezeiten unterschiedlicher Wiedergabepfade als Audio-Wiedergabelücke in einem Systemstrom, der nicht von unterschiedlichen Programmketten gemeinsam verwendet wird, können von Systemstrom-Verbindungen geschaffene Probleme, d. h., über Systemströme, in ein innerhalb eines einzelnen Systemstromes enthaltenes Problem umgewandelt werden. Daher ist es möglich, die Audio-Wiedergabelücken- Informationen innerhalb des DSI-Paketes des Systemstromes vorzusehen und somit die Audio-Wiedergabelücke und die Audio-Wiedergabelücken-Information in einen einzelnen Systemstrom zu schreiben, um dadurch den Datenaufbau zu vereinfachen.
  • Als Ergebnis macht es die vorliegende Erfindung einfach, Systemströme wiederzuverwenden, d. h. gemeinsam zu verwenden.
  • Da die Audio-Wiedergabelücke in einem einzelnen Systemstrom enthalten ist, kann die Audio-Wiedergabelücke weiterhin zu jeder gewünschten Position in dem Systemstrom bewegt werden. Als Ergebnis ist es möglich, die Audio-Wiedergabelücke zu einer stillen oder akustisch unschädlichen Position zu bewegen.
  • Industrielle Anwendbarkeit
  • Ein erfindungsgemäßes Verfahren und eine Vorrichtung zum Verschachteln eines Bitstromes zum Aufzeichnen des verschachtelten Bitstromes auf einem Aufzeichnungsmedium und Wiedergeben des aufgezeichneten Bitstromes davon ist geeignet für die Anwendung eines Autorensystems, welches einen neuen Titel erzeugen kann, durch Bearbeiten eines durch Bitströme aufgebauten Titels, welche verschiedene Informationen entsprechend den Benutzeranforderungen transportieren, und ist ebenfalls geeignet für ein Digital-Video-Disk-System, oder DVD-System, das jüngst entwickelt wurde.

Claims (2)

1. Verfahren zum Erzeugen und Aufzeichnen eines Bitstromes auf einer optischen Disk (M), wobei der Bitstrom einen ersten System-Datenstrom (VOB; SSa) und einen zweiten System-Datenstrom (VOB; SSb) zur aufeinanderfolgenden und unterbrechungslosen Wiedergabe in dieser Reihenfolge durch eine vorbestimmte Wiedergabevorrichtung für eine optische Disk umfaßt, wobei jeder der ersten und zweiten System-Datenströme (VOB) Videodaten (SSav, SSbv) und Audiodaten (SSaa, SSba) beinhaltet, welche miteinander verschachtelt sind, und wobei die vorbestimmte Wiedergabevorrichtung für eine optische Disk einen Dekodierer zum Dekodieren der Videodaten (SSav, SSbv) und der Audiodaten (SSaa, SSba) beinhaltet; einen Videopuffer (400) zum vorübergehenden Speichern der Videodaten (SSav, SSbv); und einen Audiopuffer (800) zum vorübergehenden Speichern der Audiodaten (SSaa, SSba), wobei das Verfahren die Schritte umfaßt:
(1) Berechnen eines Zeitabschnittes T2 zwischen einem Zeitpunkt, zu welchem Videodaten (SSav, SSbv), welche in den zweiten System-Datenstrom (VOB) einzufügen sind, beginnen, in den Videopuffer (400) eingegeben zu werden, und einem Zeitpunkt, zu welchem Audiodaten (SSaa, SSba), welche in den zweiten System-Datenstrom (VOB) einzufügen sind, beginnen, in den Audiopuffer (800) eingegeben zu werden; und
(2) Übertragen eines Endabschnittes der Audiodaten (SSaa, SSba), die in den ersten System-Datenstrom (VOB) einzufügen sind, mit einer Dauer gleich oder länger als ein Audio-Frame (Af) zu dem Kopf der Audiodaten (SSaa, SSba), die in den zweiten System-Datenstrom (VOB) einzufügen sind, um T2 gleich oder kürzer als T1 zu machen, wobei T1 die Summe des zum Ausgeben eines durch den Dekodierer dekodierten Audio-Frame (Af) aufgewendeten Zeitabschnitts, und des zum Dekodieren und Ausgeben so vieler Audio-Frames (Af), aufgewendeten Zeitabschnittes ist, wie der Audiopuffer (800) zum Speichern in der Lage ist.
(3) Bilden des ersten System-Datenstromes durch Verschachteln der modifizierten Audiodaten und der Videodaten, welche in den ersten System-Datenstrom einzufügen sind;
(4) Bilden des zweiten System-Datenstromes durch Verschachteln der modifizierten Audiodaten und der Videodaten, welche in den zweiten System- Datenstrom einzufügen sind; und
(5) Bilden des Bitstromes durch Anordnen des ersten System-Datenstromes und des zweiten System-Datenstromes.
2. Verfahren zum Erzeugen und Aufzeichnen eines Bitstromes auf einer optischen Disk (M), wobei der Bitstrom einen ersten System-Datenstrom (VOB; SSa) und einen zweiten System-Datenstrom (VOB; SSb) zur aufeinanderfolgenden und unterbrechungslosen Wiedergabe in dieser Reihenfolge durch eine vorbestimmte Wiedergabevorrichtung für eine optische Disk umfaßt, wobei jeder der ersten und zweiten System-Datenströme (VOB) Videodaten (SSav, SSbv) und Audiodaten (SSaa, SSba) beinhaltet, welche miteinander verschachtelt sind, und wobei die vorbestimmte Wiedergabevorrichtung für eine optische Disk einen Dekodierer zum Dekodieren der Videodaten (SSav, SSbv) und der Audiodaten (SSaa, SSba) beinhaltet; einen Videopuffer (400) zum vorübergehenden Speichern der Videodaten (SSav, SSbv); und einen Audiopuffer (800) zum vorübergehenden Speichern der Audiodaten (SSaa, SSba), wobei das Verfahren die Schritte umfaßt:
(1) Berechnen eines Zeitabschnittes T2 zwischen einem Zeitpunkt, zu welchem Videodaten (SSav, SSbv), welche in den zweiten System-Datenstrom (VOB) einzufügen sind, beginnen, in den Videopuffer (400) eingegeben zu werden, und einem Zeitpunkt, zu welchem Audiodaten (SSaa, SSba), welche in den zweiten System-Datenstrom (VOB) einzufügen sind, beginnen, in den Audiopuffer (800) eingegeben zu werden; und
(2) Übertragen eines Kopfabschnittes der Videodaten (SSav, SSbv) des zweiten System-Datenstromes (VOB) zu einem Endabschnitt des ersten System- Datenstromes (VOB), wobei der übertragene Kopfabschnitt der Videodaten (SSav, SSbv) eine vorbestimmte Länge aufweist; und Übertragen eines Kopfabschnittes der Audiodaten (SSaa, SSba) des zweiten System-Datenstromes (VOB) mit einer Dauer, die gleich oder länger als ein Audio-Frame (Af) ist, zu einem Endabschnitt des ersten System-Datenstromes (VOB), um T2 gleich oder kürzer als T1 zu machen, wobei T1 die Summe des zum Ausgeben eines durch den Dekodierer dekodierten Audio-Frame (Af) aufgewendeten Zeitabschnitts, und des zum Dekodieren und Ausgeben so vieler Audio-Frames (Af), aufgewendeten Zeitabschnittes ist, wie der Audiopuffer (800) zum Speichern in der Lage ist;
(3) Bilden des ersten System-Datenstromes durch Verschachteln der modifizierten Audiodaten und der Videodaten, welche in den ersten System-Datenstrom einzufügen sind;
(4) Bilden des zweiten System-Datenstromes durch Verschachteln der modifizierten Audiodaten und der Videodaten, welche in den zweiten System- Datenstrom einzufügen sind; und
(5) Bilden des Bitstromes durch Anordnen des ersten System-Datenstromes und des zweiten System-Datenstromes.
DE69602371T 1995-09-29 1996-09-27 Verfahren zur kodierung eines nahtlosen verbindungssystems eines bitstroms Expired - Lifetime DE69602371T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP25273595 1995-09-29
JP4158196 1996-02-28
PCT/JP1996/002803 WO1997013363A1 (fr) 1995-09-29 1996-09-27 Procede et dispositif de codage d'un systeme de connexion continue d'un train binaire

Publications (2)

Publication Number Publication Date
DE69602371D1 DE69602371D1 (de) 1999-06-10
DE69602371T2 true DE69602371T2 (de) 2000-01-13

Family

ID=26381220

Family Applications (4)

Application Number Title Priority Date Filing Date
DE69602371T Expired - Lifetime DE69602371T2 (de) 1995-09-29 1996-09-27 Verfahren zur kodierung eines nahtlosen verbindungssystems eines bitstroms
DE1996629056 Expired - Lifetime DE69629056T2 (de) 1995-09-29 1996-09-27 Optische Scheibe, Wiedergabe-Vorrichtung und -Methode, und Aufzeichnungsmethode für Kodierte Bitströme für nahtlose Wiedergabe
DE69629065T Expired - Lifetime DE69629065T2 (de) 1995-09-29 1996-09-27 Speichermedium, Wiedergabe-Vorrichtung und -Methode zur Bitstromkodierung für eine nahtlose Wiedergabe
DE69612877T Expired - Lifetime DE69612877T2 (de) 1995-09-29 1996-09-27 Optische Scheibe und Aufzeichnungsverfahren zur Kodierung eines Bitstroms

Family Applications After (3)

Application Number Title Priority Date Filing Date
DE1996629056 Expired - Lifetime DE69629056T2 (de) 1995-09-29 1996-09-27 Optische Scheibe, Wiedergabe-Vorrichtung und -Methode, und Aufzeichnungsmethode für Kodierte Bitströme für nahtlose Wiedergabe
DE69629065T Expired - Lifetime DE69629065T2 (de) 1995-09-29 1996-09-27 Speichermedium, Wiedergabe-Vorrichtung und -Methode zur Bitstromkodierung für eine nahtlose Wiedergabe
DE69612877T Expired - Lifetime DE69612877T2 (de) 1995-09-29 1996-09-27 Optische Scheibe und Aufzeichnungsverfahren zur Kodierung eines Bitstroms

Country Status (12)

Country Link
US (5) US5905845A (de)
EP (4) EP0930783B1 (de)
JP (1) JP3827096B2 (de)
KR (1) KR100352252B1 (de)
CN (3) CN1855278A (de)
DE (4) DE69602371T2 (de)
HK (2) HK1011908A1 (de)
MX (1) MX9801215A (de)
MY (1) MY113877A (de)
SG (1) SG110990A1 (de)
TW (1) TW305043B (de)
WO (1) WO1997013363A1 (de)

Families Citing this family (173)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8370746B2 (en) * 1992-12-14 2013-02-05 Monkeymedia, Inc. Video player with seamless contraction
US5623588A (en) * 1992-12-14 1997-04-22 New York University Computer user interface with non-salience deemphasis
US8381126B2 (en) * 1992-12-14 2013-02-19 Monkeymedia, Inc. Computer user interface with non-salience deemphasis
TW305043B (de) * 1995-09-29 1997-05-11 Matsushita Electric Ind Co Ltd
TW436777B (en) * 1995-09-29 2001-05-28 Matsushita Electric Ind Co Ltd A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
US6484266B2 (en) 1995-09-29 2002-11-19 Matsushita Electric Industrial Co., Ltd. Method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
JP3986084B2 (ja) 1995-12-07 2007-10-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ディジタル・バーサタイル・ディスク装置および多チャネル再生装置間で非pcmビットストリームを符号化し、伝送し、復号化する方法および装置
WO1997025714A1 (fr) 1996-01-08 1997-07-17 Kabushiki Kaisha Toshiba Support d'enregistrement de donnees, procede d'enregistrement et dispositif de reproduction
ATE243879T1 (de) * 1996-02-21 2003-07-15 Time Warner Entertainm Co Lp Verfahren zur datenverschachtelung für die kontinuierliche wiedergabe von mehreren programmversionen mit demselben material
JP3748287B2 (ja) * 1996-02-28 2006-02-22 パイオニア株式会社 情報再生装置及び方法
JP3824699B2 (ja) * 1996-03-15 2006-09-20 パイオニア株式会社 情報記録媒体、その記録装置及び方法、その再生装置及び方法並びに情報処理装置及び方法
JP4012585B2 (ja) * 1996-03-22 2007-11-21 パイオニア株式会社 記録装置及び記録方法並びに再生装置及び再生方法
JP3263807B2 (ja) * 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
JPH10320914A (ja) * 1997-05-15 1998-12-04 Sanyo Electric Co Ltd 符号記録装置、符号多重方法
US6243086B1 (en) * 1997-05-29 2001-06-05 Matsushita Electric Industrial Co., Ltd. Reproduction apparatus
CN1123885C (zh) * 1997-06-03 2003-10-08 皇家菲利浦电子有限公司 用于从一种记录载体中再现数字音频信号的装置和方法
WO1999000921A1 (fr) * 1997-06-27 1999-01-07 Sony Corporation Dispositif multicanal d'emission de donnees numeriques et procede correspondant, dispositif d'organisation d'information et procede correspondant, et dispositif multicanal de gestion de donnees et procede correspondant
DE69812258T2 (de) * 1997-09-17 2003-09-25 Matsushita Electric Industrial Co., Ltd. Videodatenschnittgerät, optische Platte zur Verwendung als Aufzeichnungsmedium dafür und rechnerlesbares Aufzeichnungsmedium
WO1999014756A2 (en) * 1997-09-17 1999-03-25 Matsushita Electric Industrial Co., Ltd. Video data editing apparatus and computer-readable recording medium storing an editing program
US6487364B2 (en) 1997-09-17 2002-11-26 Matsushita Electric Industrial Co., Ltd. Optical disc, video data editing apparatus, computer-readable recording medium storing an editing program, reproduction apparatus for the optical disc, and computer-readable recording medium storing a reproduction program
US6181870B1 (en) 1997-09-17 2001-01-30 Matushita Electric Industrial Co., Ltd. Optical disc having an area storing original and user chain information specifying at least part of a video object stored on the disc, and a computer program and recording apparatus for recording and editing the chain information
EP0917147A3 (de) * 1997-11-11 1999-12-22 Deutsche Thomson-Brandt Gmbh Verfahren und Vorrichtung zur Steuerung eines Daten-Zwischenspeichers
JP3437426B2 (ja) * 1997-11-28 2003-08-18 パイオニア株式会社 情報記録媒体並びに情報再生装置及び情報再生方法
CN1253017C (zh) 1997-12-15 2006-04-19 松下电器产业株式会社 用于把视频目标记录在光盘上的记录设备及其方法
CN1118065C (zh) * 1997-12-15 2003-08-13 松下电器产业株式会社 光盘的记录和复制设备及方法
JP3607486B2 (ja) * 1998-01-21 2005-01-05 株式会社東芝 情報記録再生装置
JPH11232792A (ja) * 1998-02-12 1999-08-27 Nippon Columbia Co Ltd 記録装置およびディスク記録方法
EP2261918A3 (de) * 1998-02-23 2011-03-09 Kabushiki Kaisha Toshiba Informationsaufzeichnungsmedium, Informationswiedergabeverfahren und -vorrichtung, und Informationsaufzeichnungsverfahren
US6754439B1 (en) * 1998-04-06 2004-06-22 Seachange International, Inc. Method and apparatus for using multiple compressed digital video and audio signals
JP3997367B2 (ja) * 1998-04-30 2007-10-24 ソニー株式会社 記録再生装置および方法、並びに記録媒体
DE19822975A1 (de) * 1998-05-25 1999-12-02 Thomson Brandt Gmbh Verfahren und Vorrichtung zum Aufnehmen und Wiedergeben von Video- und/oder Audiosignalen
JP2000021089A (ja) * 1998-07-01 2000-01-21 Nippon Columbia Co Ltd 記録装置
JP2000059732A (ja) * 1998-08-04 2000-02-25 Matsushita Electric Ind Co Ltd Avエンコーダ装置
JP3602728B2 (ja) * 1998-10-22 2004-12-15 株式会社東芝 ディジタルビデオディスクプレーヤ及び画像表示装置
US6408128B1 (en) * 1998-11-12 2002-06-18 Max Abecassis Replaying with supplementary information a segment of a video
JP2000152179A (ja) * 1998-11-17 2000-05-30 Pioneer Electronic Corp 映像データ再生方法、映像データ再生装置、映像データ記録方法及び映像データ記録装置
JP3339440B2 (ja) * 1998-12-24 2002-10-28 日本ビクター株式会社 符号化データ記録媒体
JP4030671B2 (ja) 1999-01-26 2008-01-09 パイオニア株式会社 記録媒体と記録装置及び記録方法
JP4763892B2 (ja) 1999-03-01 2011-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 情報信号のリアルタイムストリームをディスク状記録担体上に記憶する方法
JP2000287169A (ja) * 1999-03-30 2000-10-13 Pioneer Electronic Corp 映像音声多重記録装置
JP2000285644A (ja) * 1999-03-31 2000-10-13 Sony Corp コンテンツ作成方法、コンテンツ作成装置、コンテンツ記録媒体、コンテンツダウンロード方法およびコンテンツ蓄積配信装置
WO2000062295A1 (fr) * 1999-04-07 2000-10-19 Kabushiki Kaisha Toshiba Systeme d'enregistrement d'informations numeriques, y compris d'informations audio
US6393158B1 (en) * 1999-04-23 2002-05-21 Monkeymedia, Inc. Method and storage device for expanding and contracting continuous play media seamlessly
US10051298B2 (en) 1999-04-23 2018-08-14 Monkeymedia, Inc. Wireless seamless expansion and video advertising player
US6751776B1 (en) * 1999-08-06 2004-06-15 Nec Corporation Method and apparatus for personalized multimedia summarization based upon user specified theme
US7133598B1 (en) * 1999-08-20 2006-11-07 Thomson Licensing Method for converting packetized video data and corresponding navigation data into a second data format
US7239702B1 (en) * 1999-08-20 2007-07-03 Sony Corporation Information recording/reproducing device
JP4389365B2 (ja) * 1999-09-29 2009-12-24 ソニー株式会社 トランスポートストリーム記録装置および方法、トランスポートストリーム再生装置および方法、並びにプログラム記録媒体
US6693857B1 (en) * 1999-11-04 2004-02-17 Thomson Licensing S.A. Data buffer management to enable apparent simultaneous record and playback from a rewritable digital disk
US6912350B1 (en) * 1999-12-08 2005-06-28 Intel Corporation DVD subpicture rendering without loss of color resolution
US6754279B2 (en) * 1999-12-20 2004-06-22 Texas Instruments Incorporated Digital still camera system and method
GB2359917B (en) * 2000-02-29 2003-10-15 Sony Uk Ltd Media editing
KR100394974B1 (ko) * 2000-05-23 2003-08-19 엘지전자 주식회사 고밀도 광 기록매체에서의 멀티경로 데이터를 수용하는 방법
US7043484B2 (en) * 2000-12-05 2006-05-09 Dvdemand Technologies Inc. System and method for producing storage media images
US20020106191A1 (en) * 2001-01-05 2002-08-08 Vm Labs, Inc. Systems and methods for creating a video montage from titles on a digital video disk
US7356250B2 (en) * 2001-01-05 2008-04-08 Genesis Microchip Inc. Systems and methods for creating a single video frame with one or more interest points
JP4691798B2 (ja) * 2001-01-15 2011-06-01 ソニー株式会社 記録装置および記録媒体
JP3952950B2 (ja) * 2001-04-25 2007-08-01 ソニー株式会社 ストリームデータを送信するデータ送信方法及び装置
JP3773805B2 (ja) * 2001-04-27 2006-05-10 Necエレクトロニクス株式会社 データストリーム生成方法とそのための装置
US6961324B2 (en) 2001-05-02 2005-11-01 Ipr Licensing, Inc. System and method for interleaving compressed audio/video (A/V) data frames
KR100598285B1 (ko) 2001-06-21 2006-07-07 엘지전자 주식회사 멀티채널 스트림 기록장치 및 방법과, 그에 따른 기록매체
KR20020097454A (ko) * 2001-06-21 2002-12-31 엘지전자 주식회사 멀티채널 스트림 기록장치 및 방법과, 그에 따른 기록매체
KR100752480B1 (ko) 2001-06-21 2007-08-28 엘지전자 주식회사 멀티채널 스트림 기록장치 및 방법과, 그에 따른 기록매체
GB0117926D0 (en) * 2001-07-23 2001-09-12 Nds Ltd Method for random access to encrypted content
US7643727B2 (en) * 2001-07-24 2010-01-05 Lg Electronics Inc. Method and apparatus of recording a multi-channel stream, and a recording medium containing a multi-channel stream recorded by said method
US7808905B2 (en) * 2001-09-27 2010-10-05 Panasonic Corporation Transmission method, sending device and receiving device
KR100563680B1 (ko) * 2001-11-27 2006-03-28 엘지전자 주식회사 재기록 가능 기록매체의 오디오 가사 데이터 기록 관리 및재생방법
KR20030043299A (ko) * 2001-11-27 2003-06-02 주식회사 엘지이아이 오디오 데이터와 부가 데이터간의 동기 기록 관리 및재생방법
US7889968B2 (en) 2002-06-24 2011-02-15 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
KR20040000290A (ko) 2002-06-24 2004-01-03 엘지전자 주식회사 고밀도 광디스크의 멀티 경로 데이터 스트림 관리방법
WO2004001750A1 (en) 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
CN101350214B (zh) 2002-06-24 2015-07-01 Lg电子株式会社 记录和再现用于视频数据的再现的数据结构的方法及装置
WO2004003908A1 (en) 2002-06-28 2004-01-08 Lg Electronics Inc. Recording medium having data structure for managing recording and reproduction of multiple path data recorded thereon and recording and reproducing methods and apparatus
CA2459070C (en) 2002-06-28 2013-10-22 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple playback path video data recorded thereon and recording and reproducing methods and apparatuses
US8331456B2 (en) * 2002-09-27 2012-12-11 Broadcom Corporation System and method for audio and visual synchronization
JP3986973B2 (ja) * 2002-10-17 2007-10-03 シャープ株式会社 Avデータ記録方法、avデータ記録装置、データ記録媒体、及びプログラム
TWI265492B (en) 2002-11-08 2006-11-01 Lg Electronics Inc Method and apparatus for recording a multi-component stream and a high-density recording medium having a multi-component stream recorded thereon and reproducing method and apparatus of said recording medium
US7720356B2 (en) 2002-11-12 2010-05-18 Lg Electronics Inc Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
ES2541122T3 (es) * 2002-11-12 2015-07-16 Lg Electronics Inc. Medio de grabación que tiene una estructura de datos para gestionar la reproducción de datos de vídeo de múltiples trayectorias de reproducción grabados en el mismo y métodos y aparatos de grabación y reproducción
US7664372B2 (en) 2002-11-20 2010-02-16 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple component data recorded thereon and recording and reproducing methods and apparatuses
US7783160B2 (en) 2002-11-20 2010-08-24 Lg Electronics Inc. Recording medium having data structure for managing reproduction of interleaved multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
ES2534980T3 (es) * 2002-11-22 2015-04-30 Lg Electronics, Inc. Medio de grabación que tiene una estructura de datos para gestionar la reproducción de datos de video de ruta de reproducción múltiple grabados en el mismo, y métodos y aparatos de grabación y reproducción
WO2004049710A1 (ja) 2002-11-28 2004-06-10 Sony Corporation 再生装置、再生方法、再生プログラムおよび記録媒体
KR100939711B1 (ko) * 2002-12-12 2010-02-01 엘지전자 주식회사 텍스트 기반의 서브타이틀 재생장치 및 방법
AU2003289079A1 (en) * 2002-12-20 2004-07-14 Mitsubishi Chemical Corporation Optical recording medium, method recording optical recording medium, and recorder
US20040252983A1 (en) * 2003-02-04 2004-12-16 Samsung Electronics Co., Ltd. Method and apparatus for reproducing AV data in an interactive mode, and information storage medium therefor
US7606463B2 (en) * 2003-02-24 2009-10-20 Lg Electronics, Inc. Recording medium having data structure for managing playback control and recording and reproducing methods and apparatuses
US7809775B2 (en) 2003-02-27 2010-10-05 Lg Electronics, Inc. Recording medium having data structure for managing playback control recorded thereon and recording and reproducing methods and apparatuses
KR101119108B1 (ko) 2003-02-28 2012-06-12 엘지전자 주식회사 기록되는 비디오 데이터의 랜덤/셔플 재생을 관리하기 위한데이터 구조를 갖는 기록 매체와 그에 따른 기록 및 재생방법 및 장치
US8832758B2 (en) * 2003-03-17 2014-09-09 Qwest Communications International Inc. Methods and systems for providing video on demand
US7224664B2 (en) * 2003-03-25 2007-05-29 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data streams recorded thereon and recording and reproducing methods and apparatuses
EP1617660B1 (de) * 2003-04-24 2012-08-29 Sony Corporation Informationsverarbeitungseinrichtung und informationsverarbeitungsverfahren, programmspeichermedium und programm
JP4228767B2 (ja) * 2003-04-25 2009-02-25 ソニー株式会社 再生装置、再生方法、再生プログラムおよび記録媒体
GB0312874D0 (en) * 2003-06-05 2003-07-09 Zoo Digital Group Plc Controlling access to an audiovisual product
WO2004109678A1 (en) * 2003-06-05 2004-12-16 Zootech Limited Obscuring data in an audiovisual product
US8190001B2 (en) * 2003-06-12 2012-05-29 Mark Bernsley Method for creating and exhibiting multidimensional interactive stories
US20110081130A1 (en) * 2003-06-20 2011-04-07 ZOO Digital Limited, a Limited Company Obscuring data in an audiovisual product
US20040268033A1 (en) * 2003-06-24 2004-12-30 Seagate Technology Llc Refreshing data in a data storage device
JP4217964B2 (ja) * 2003-08-20 2009-02-04 ソニー株式会社 情報信号処理装置および情報信号処理方法
US7519274B2 (en) * 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
KR20050072255A (ko) 2004-01-06 2005-07-11 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 구성방법 및 재생방법과기록재생장치
JP2007518205A (ja) * 2004-01-06 2007-07-05 エルジー エレクトロニクス インコーポレーテッド テキスト・サブタイトル・ストリームの再生・記録のための記録媒体、方法及び装置
EP2257059B1 (de) 2004-01-13 2014-03-12 Panasonic Corporation Aufzeichnungsmedium, Wiedergabevorrichtung, Aufzeichnungsverfahren, Programm und Wiedergabeverfahren
KR100640885B1 (ko) * 2004-01-27 2006-11-02 엘지전자 주식회사 듀얼 비디오 디코딩을 위한 비디오 버퍼 제어 장치
KR20070028325A (ko) * 2004-02-10 2007-03-12 엘지전자 주식회사 텍스트 서브타이틀 디코더 및 텍스트 서브타이틀 스트림디코딩 방법
WO2005076278A1 (en) * 2004-02-10 2005-08-18 Lg Electronic Inc. Recording medium having a data structure for managing data streams associated with different languages and recording and reproducing methods and apparatuses
KR20070028326A (ko) * 2004-02-10 2007-03-12 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 디코딩 방법과 장치
KR20070007307A (ko) * 2004-02-10 2007-01-15 엘지전자 주식회사 다양한 데이터를 관리하기 위한 데이터 구조를 갖는 기록매체, 기록 재생 방법 및 그 장치
US20050196146A1 (en) * 2004-02-10 2005-09-08 Yoo Jea Y. Method for reproducing text subtitle and text subtitle decoding system
RU2377669C2 (ru) * 2004-02-10 2009-12-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, имеющий структуру данных для управления различными данными, и способ и устройство записи и воспроизведения
US7587405B2 (en) * 2004-02-10 2009-09-08 Lg Electronics Inc. Recording medium and method and apparatus for decoding text subtitle streams
US7660516B2 (en) 2004-02-17 2010-02-09 Panasonic Corporation Recording medium, reproduction device, program, and reproduction method
WO2005081643A2 (en) * 2004-02-26 2005-09-09 Lg Electronics Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams
US7512322B2 (en) * 2004-03-17 2009-03-31 Lg Electronics, Inc. Recording medium, method, and apparatus for reproducing text subtitle streams
US8059943B2 (en) * 2004-04-07 2011-11-15 Panasonic Corporation Information recording medium wherein stream convertible at high-speed is recorded, and recording apparatus and recording method therefor
KR20060047266A (ko) * 2004-04-26 2006-05-18 엘지전자 주식회사 기록매체, 기록매체의 재생방법과 재생장치
JP4724710B2 (ja) * 2004-05-03 2011-07-13 エルジー エレクトロニクス インコーポレイティド テキストサブタイトルデータを再生管理するためのデータ構造を有する記録媒体及びこれと関連する方法及び装置
JP4075068B2 (ja) * 2004-05-12 2008-04-16 船井電機株式会社 映像音声記録装置
JP2005346800A (ja) * 2004-06-02 2005-12-15 Funai Electric Co Ltd 記録再生制御装置
US20050276548A1 (en) * 2004-06-10 2005-12-15 Jiang Fu Transcoding closed captioning data from broadcast DTV onto DVD
US20080035176A1 (en) * 2004-08-25 2008-02-14 Byers Ernest F Automated Cart and Container Cleaning System
WO2006049408A2 (en) * 2004-11-02 2006-05-11 Lg Electronics Inc. Recording medium, and method and apparatus for reproducing data from the recording medium
KR100739770B1 (ko) 2004-12-11 2007-07-13 삼성전자주식회사 멀티 앵글 타이틀에 적용 가능한 메타 데이터를 포함하는저장 매체, 그 재생 장치 및 방법
JP4442420B2 (ja) * 2004-12-28 2010-03-31 ソニー株式会社 画像再生装置および方法、並びにプログラム
US8842977B2 (en) * 2005-01-07 2014-09-23 Samsung Electronics Co., Ltd. Storage medium storing metadata for providing enhanced search function
KR100782810B1 (ko) 2005-01-07 2007-12-06 삼성전자주식회사 확장 검색 기능을 제공하기 위한 메타데이터가 기록된 저장매체를 재생하는 방법 및 장치
US20060221794A1 (en) * 2005-04-04 2006-10-05 Lite-On It Corporation Method and system for playing audio DVD, and method of recording same
KR101491684B1 (ko) 2005-04-26 2015-02-11 톰슨 라이센싱 동기화된 스트림 패킹
US8102878B2 (en) * 2005-09-29 2012-01-24 Qualcomm Incorporated Video packet shaping for video telephony
US8406309B2 (en) * 2005-10-21 2013-03-26 Qualcomm Incorporated Video rate adaptation to reverse link conditions
US8514711B2 (en) * 2005-10-21 2013-08-20 Qualcomm Incorporated Reverse link lower layer assisted video error control
US8842555B2 (en) * 2005-10-21 2014-09-23 Qualcomm Incorporated Methods and systems for adaptive encoding of real-time information in packet-switched wireless communication systems
US8548048B2 (en) 2005-10-27 2013-10-01 Qualcomm Incorporated Video source rate control for video telephony
CN101390388B (zh) * 2006-02-27 2010-09-15 松下电器产业株式会社 再现装置、携带式电话机和再现方法
WO2007106844A2 (en) 2006-03-14 2007-09-20 Divx, Inc. Federated digital rights management scheme including trusted systems
WO2007114107A1 (ja) * 2006-03-30 2007-10-11 Pioneer Corporation コンテンツ送信システムにおけるサーバー装置およびコンテンツ送信方法
US20070297454A1 (en) * 2006-06-21 2007-12-27 Brothers Thomas J Systems and methods for multicasting audio
US20070299983A1 (en) * 2006-06-21 2007-12-27 Brothers Thomas J Apparatus for synchronizing multicast audio and video
KR20120034084A (ko) * 2007-01-10 2012-04-09 콸콤 인코포레이티드 멀티미디어 전화 통신을 위한 컨텐트- 및 링크-의존 코딩 적응 구조
JP4450021B2 (ja) * 2007-07-05 2010-04-14 ソニー株式会社 記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラム
GB0715316D0 (en) * 2007-08-07 2007-09-19 Tecton Ltd Video telemetry
JP5513400B2 (ja) 2007-11-16 2014-06-04 ソニック アイピー, インコーポレイテッド マルチメディアファイルのための階層的で簡略なインデックス構造体
JP4309940B2 (ja) * 2007-12-27 2009-08-05 株式会社東芝 ストリーム多重装置、ストリーム多重方法および記録媒体
US8797850B2 (en) * 2008-01-10 2014-08-05 Qualcomm Incorporated System and method to adapt to network congestion
TWI478581B (zh) * 2008-06-10 2015-03-21 Sunplus Technology Co Ltd 多個多媒體檔案的無接縫播放方法
WO2010026496A1 (en) * 2008-09-07 2010-03-11 Sportvu Ltd. Method and system for fusing video streams
AU2010203605B2 (en) 2009-01-07 2015-05-14 Divx, Llc Singular, collective and automated creation of a media guide for online content
KR101487686B1 (ko) 2009-08-14 2015-01-30 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
EP2507995A4 (de) 2009-12-04 2014-07-09 Sonic Ip Inc Systeme und verfahren zum transport eines kryptographischen materials für elementare bitströme
US8428045B2 (en) * 2010-03-16 2013-04-23 Harman International Industries, Incorporated Media clock recovery
US8588310B2 (en) * 2010-08-31 2013-11-19 General Instrument Corporation Method and apparatus for managing delivery of bits to a decoder
US9247312B2 (en) 2011-01-05 2016-01-26 Sonic Ip, Inc. Systems and methods for encoding source media in matroska container files for adaptive bitrate streaming using hypertext transfer protocol
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
US8818171B2 (en) 2011-08-30 2014-08-26 Kourosh Soroushian Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
WO2013033458A2 (en) 2011-08-30 2013-03-07 Divx, Llc Systems and methods for encoding and streaming video encoded using a plurality of maximum bitrate levels
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US8964977B2 (en) 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
US8817725B2 (en) * 2012-01-13 2014-08-26 Blackberry Limited Scheduling transmission of traffic treated less preferentially despite timing requirements
TWI540886B (zh) * 2012-05-23 2016-07-01 晨星半導體股份有限公司 音訊解碼方法及音訊解碼裝置
US10452715B2 (en) 2012-06-30 2019-10-22 Divx, Llc Systems and methods for compressing geotagged video
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
CN104038808A (zh) * 2013-03-07 2014-09-10 华东师范大学 增强机动载体视频流畅的图像解码装置及***及解码方法
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US9967305B2 (en) 2013-06-28 2018-05-08 Divx, Llc Systems, methods, and media for streaming media content
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
KR20160045441A (ko) * 2014-10-17 2016-04-27 삼성전자주식회사 동영상 재생 방법 및 장치
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
CN108449617B (zh) * 2018-02-11 2020-04-03 浙江大华技术股份有限公司 一种控制音视频同步的方法及装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4777537A (en) * 1985-10-21 1988-10-11 Sony Corporation Signal recording apparatus and method
JPH04123677A (ja) * 1990-09-14 1992-04-23 Sony Corp Vtrの音声信号記録方法
JP3036828B2 (ja) * 1990-11-29 2000-04-24 キヤノン株式会社 記録装置
DE69320620T2 (de) * 1992-09-22 1999-01-14 Sony Corp., Tokio/Tokyo Vorrichtung und verfahren zur verarbeitung von digitalen videosignalen
JP3255308B2 (ja) * 1992-12-18 2002-02-12 ソニー株式会社 データ再生装置
US5481543A (en) * 1993-03-16 1996-01-02 Sony Corporation Rational input buffer arrangements for auxiliary information in video and audio signal processing systems
US5511054A (en) * 1993-03-31 1996-04-23 Sony Corporation Apparatus and method for multiplexing encoded data signals and recording medium having multiplexed signals recorded thereon
US5646796A (en) * 1993-05-10 1997-07-08 Sony Corporation Apparatus and method for recording and reproducing topic data with digital video and audio data
JP3605826B2 (ja) * 1993-06-10 2004-12-22 ソニー株式会社 ビデオおよびオーディオ信号処理システムにおける補助情報のための合理的入力バッファの回路配列
US5561466A (en) * 1993-06-23 1996-10-01 Nec Corporation Video and audio data multiplexing into ATM cells with no dummy cell used and ATM cell demultiplexing
US5576843A (en) * 1993-10-29 1996-11-19 Time Warner Entertainment Co., L.P. System and method for controlling play of multiple dialog audio tracks of a software carrier
US5463565A (en) * 1993-10-29 1995-10-31 Time Warner Entertainment Co., L.P. Data block format for software carrier and player therefor
US5850500A (en) * 1995-06-28 1998-12-15 Kabushiki Kaisha Toshiba Recording medium comprising a plurality of different languages which are selectable independently of each other
JPH07134858A (ja) 1993-11-12 1995-05-23 Mitsubishi Electric Corp 情報再生装置
JP3485958B2 (ja) * 1994-04-08 2004-01-13 株式会社東芝 記録媒体再生装置及び記録媒体再生方法
US5583652A (en) * 1994-04-28 1996-12-10 International Business Machines Corporation Synchronized, variable-speed playback of digitally recorded audio and video
JPH0863884A (ja) * 1994-08-23 1996-03-08 Mitsubishi Electric Corp ディジタル情報符号化・復号装置
US5815634A (en) * 1994-09-30 1998-09-29 Cirrus Logic, Inc. Stream synchronization method and apparatus for MPEG playback system
US5543853A (en) * 1995-01-19 1996-08-06 At&T Corp. Encoder/decoder buffer control for variable bit-rate channel
JPH08251358A (ja) 1995-03-07 1996-09-27 Sanyo Electric Co Ltd 情報端末装置
JP3100307B2 (ja) * 1995-03-14 2000-10-16 日本ビクター株式会社 圧縮データ連続再生システム
US5838874A (en) * 1995-05-08 1998-11-17 Kabushiki Kaisha Toshiba Audiovisual encoding system with a reduced number of audio encoders
SG80607A1 (en) 1995-09-29 2001-05-22 Matsushita Electric Ind Co Ltd Method and device for recording and reproducing interleaved bitstream on and from medium
TW335480B (en) 1995-09-29 1998-07-01 Matsushita Electric Ind Co Ltd Method and apparatus for encoding a bistream for multi-angle connection
TW303570B (de) 1995-09-29 1997-04-21 Matsushita Electric Ind Co Ltd
TW385431B (en) 1995-09-29 2000-03-21 Matsushita Electric Ind Co Ltd A method and an apparatus for encoding a bitstream with plural possible searching reproduction paths information useful in multimedia optical disk
TW436777B (en) 1995-09-29 2001-05-28 Matsushita Electric Ind Co Ltd A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
TW305043B (de) * 1995-09-29 1997-05-11 Matsushita Electric Ind Co Ltd
US5745645A (en) 1995-09-29 1998-04-28 Matsushita Electric Industrial Co., Ltd. Method and an apparatus for encoding telecine-converted video data for seamless connection

Also Published As

Publication number Publication date
MX9801215A (es) 1998-04-30
EP0930782A1 (de) 1999-07-21
KR19990063896A (ko) 1999-07-26
DE69612877D1 (de) 2001-06-21
HK1011908A1 (en) 1999-07-23
CN1113532C (zh) 2003-07-02
TW305043B (de) 1997-05-11
HK1016792A1 (en) 1999-11-05
DE69629056T2 (de) 2004-01-29
CN1260966C (zh) 2006-06-21
DE69629065T2 (de) 2003-12-24
EP1202568B1 (de) 2003-07-09
EP0847196A4 (de) 1998-06-10
EP0847196A1 (de) 1998-06-10
US6549722B2 (en) 2003-04-15
US7274860B2 (en) 2007-09-25
US20020031336A1 (en) 2002-03-14
DE69612877T2 (de) 2002-01-03
EP0930783A1 (de) 1999-07-21
US6173113B1 (en) 2001-01-09
KR100352252B1 (ko) 2003-01-06
EP1202568A2 (de) 2002-05-02
US6341199B1 (en) 2002-01-22
CN1855278A (zh) 2006-11-01
CN1516453A (zh) 2004-07-28
DE69629056D1 (de) 2003-08-14
SG110990A1 (en) 2005-05-30
EP0930783B1 (de) 2003-07-09
EP1202568A3 (de) 2002-07-31
CN1197577A (zh) 1998-10-28
EP0847196B1 (de) 1999-05-06
US5905845A (en) 1999-05-18
US20030123855A1 (en) 2003-07-03
JP3827096B2 (ja) 2006-09-27
DE69602371D1 (de) 1999-06-10
WO1997013363A1 (fr) 1997-04-10
MY113877A (en) 2002-06-29
EP0930782B1 (de) 2001-05-16
DE69629065D1 (de) 2003-08-14

Similar Documents

Publication Publication Date Title
DE69602371T2 (de) Verfahren zur kodierung eines nahtlosen verbindungssystems eines bitstroms
DE69602272T2 (de) Kodierte speicherplatte und wiedergabe-vorrichtung mit such-/wiedergabefunktion in trick-wiedergabe-modi
DE69602372T2 (de) Verfahren und vorrichtung zur nahtlosen wiedergabe eines nichtkontinuierlichen, system-zeitinformation enthaltenden bitstroms
DE69602275T2 (de) Verfahren und optische speicherplatte zur mehrfachwinkelverbindung und kodierung eines bitstroms
DE69602273T2 (de) Verfahren, vorrichtung und speicherplatte zur aufnahme und wiedergabe eines verschachtelten bitstroms auf und von der speicherplatte
DE69633244T2 (de) Verfahren und anlage zur nahtlosen verbindungskodierung eines bitstroms
DE69721483T2 (de) Edier-und Autorensystem für einen Multimedia-Datenstrom mit Überprüfung der Edierbefehle
US6502199B2 (en) Method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
DE69602274T2 (de) Verfahren, vorrichtung und speicherplatte zur kodierung einer nahtlosen verbindung für in fernsehfilm übersetzte videodaten
JP3382614B1 (ja) 記録方法および再生方法
JP3364214B2 (ja) 記録方法と再生装置及び再生方法
JP3382615B1 (ja) 記録方法と再生装置及び再生方法
JP3364212B2 (ja) 記録方法と再生装置及び再生方法
JP3364213B2 (ja) 記録方法および再生方法
JP2003132646A (ja) 記録方法、再生方法および再生装置

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP