DE69615947T2 - Bildverarbeitungsgerät - Google Patents

Bildverarbeitungsgerät

Info

Publication number
DE69615947T2
DE69615947T2 DE69615947T DE69615947T DE69615947T2 DE 69615947 T2 DE69615947 T2 DE 69615947T2 DE 69615947 T DE69615947 T DE 69615947T DE 69615947 T DE69615947 T DE 69615947T DE 69615947 T2 DE69615947 T2 DE 69615947T2
Authority
DE
Germany
Prior art keywords
data
image
image data
signal
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69615947T
Other languages
English (en)
Other versions
DE69615947D1 (de
Inventor
Masaaki Higashida
Masataka Higuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69615947D1 publication Critical patent/DE69615947D1/de
Publication of DE69615947T2 publication Critical patent/DE69615947T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/022Electronic editing of analogue information signals, e.g. audio or video signals
    • G11B27/028Electronic editing of analogue information signals, e.g. audio or video signals with computer assistance
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2512Floppy disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/60Solid state media
    • G11B2220/61Solid state media wherein solid state memory is used for storing A/V content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

    1. GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft eine Bildaufbereitungsvorrichtung zum Aufbereiten (bzw. Schneiden oder Editieren) digitalisierter Videosignale bzw. eine Bildaufbereitungsvorrichtung, die Aufbereitung erlaubt, während aus Videosignalen wiedergegebene Bilder überwacht werden, und insbesondere betrifft sie eine Bildaufbereitungsvorrichtung, die für ein Aufbereitungs- bzw. Schnittsystem verwendet wird, das in einer Fernsehstation oder bei der Nachproduktion eingesetzt wird.
  • 2. BESCHREIBUNG DES STANDES DER TECHNIK
  • Beim Schneiden bzw. Aufbereiten von Videomaterial, das beispielsweise durch eine Fernsehkamera aufgenommen wurde, ist heutzutage in Sendestationen und bei der Nachproduktion nichtlineares Aufbereiten bzw. Schneiden üblich. Nichtlineares Aufbereiten besteht darin, dass zunächst digitalisierte Bilddaten in einem Videoserver oder auf einer lokalen Platte oder einer anderen Bildspeichervorrichtung gespeichert werden, die an dem Videoserver angebracht ist, woraufhin die Bilddaten durch Aufzeichnen von Aufnahmen und/oder Einfügen und Löschen von Aufnahmen in dem Videoserver aufbereitet werden.
  • Wenn nichtlineares Aufbereiten durchgeführt wird, werden in dem Videoserver gespeicherte Daten beispielsweise in einem Personalcomputer (nachfolgend abgekürzt als PC bezeichnet) zur Anzeige übertragen und der Editor bzw. die aufbereitende Person wählt einen Aufbereitungspunkt, während er das angezeigte Bild betrachtet. Unter Verwendung von Indexinformation, die, zusammen mit dem Bild übertragen wird (die Indexinformation enthält Daten, wie etwa einen Zeitcode und zeigt die Stelle der Bilddaten in den Videodaten an), wird eine Aufbereitungsentscheidungsliste (EDL) zum Online-Aufbereiten derart erstellt, dass Aufbereitungsdateninformation, wie etwa die Aufbereitungsabfolge, in ihr enthalten sind. Die EDL enthält Information, wie etwa die Aufbereitungsabfolge und die Aufbereitungspunkte, die nicht zum vorläufigen Aufbereiten, sondern zum endgültigen Aufbereiten eines Rundfunkprogramms verwendet wird, durchgeführt unter Verwendung eines Videoservers, VTR, u. dgl.
  • Fig. 17 zeigt ein Blockdiagramm einer Bildaufbereitungsvorrichtung, gemäß dem Stand der Technik, unter Verwendung eines Videoservers.
  • In Fig. 17 handelt es sich bei erstem Videomaterial 301, zweitem Videomaterial 302 und drittem Videomaterial 303 um Videomaterialien, die in einem Fernsehstudio oder vor Ort produziert oder gesammelt werden. Der Videoserver 304 ist in der Lage, große Volumina von Videomaterial zu speichern (aufzunehmen). Bei dem PC 305 handelt es sich um einen Personalcomputer, der beispielsweise durch einen Editor oder einen Nachrichtenmanuskriptautor verwendet wird.
  • Das erste Videomaterial 301, das zweite Videomaterial 302, das dritte Videomaterial 303, der Videoserver 304 und der PC 305 sind über eine Datenübertragungsleitung 306 miteinander verbunden, über die Daten übertragen werden.
  • Die Arbeitsweise der in Fig. 17 gezeigten Bildaufbereitungsvorrichtung wird nunmehr erläutert.
  • Das erste Videomaterial 301, das zweite Videomaterial 302 und das dritte Videomaterial 303 enthalten Videobilder, die durch Fernsehkameras o. dgl. erfasst wurden, aufgezeichnet auf einem Aufzeichnungsmedium, wie etwa einem Videoband. Bei einer Nachrichtenprogrammproduktion als Beispiel sind zur Verwendung in der Sendung ausgewählte Aufnahmen und nicht ausgewählte Aufnahmen willkürlich bzw. zufällig in dem einen (einzigen) Videomaterial oder verteilt über mehr als ein Videomaterial enthalten. Das heißt, die Abfolge, in der die Aufnahmen gespeichert sind, ist zufällig und entspricht nicht der Übertragungssequenz (zu Sendezwecken).
  • Die Videodaten von dem ersten Videomaterial 301, dem zweiten Videomaterial 302 und dem dritten Videomaterial 303 werden über die Datenübertragungsleitung 306 zu dem Videoserver 304 zur Aufnahme und Speicherung übertragen. Die derart gespeicherten Videodaten werden auf Anforderung von außen übertragen bzw. ausgesendet.
  • Für den Videoserver 304 wird eine Plattenvorrichtung, wie etwa eine Harddisk (nachfolgend abgekürzt als HDD bezeichnet) verwendet, die einen zufälligen Zugriff auf die Bilddaten erlaubt. Wenn das erste Videomaterial 301, das zweite Videomaterial 302 und das dritte Videomaterial 303 zu dem Videoserver 304 zur Aufzeichnung (Speicherung) übertragen werden, werden dann, wenn das Videomaterial bereits komprimiert ist, die übertragenen Daten direkt in dem Videoserver 304 aufgezeichnet. Wenn es sich bei dem Videomaterial um nicht komprimierte Bilddaten handelt, wird ein hochwirksames Codieren angewendet, um die Bilddaten vor der Aufzeichnung zu komprimieren.
  • Die Bilddaten werden zusammen mit einer Kassettennummer (nachfolgend als Kassetten-ID bezeichnet) aufgezeichnet, welche die Videokassette bezeichnet, die die Bilddaten und die Information enthält, welche die Stelle der Bilddaten in der Videokassette anzeigt (üblicherweise wird der SMPTE-(Society of Motion Picture and Television Engineers)-Zeitcode verwendet). Die Kassetten-ID und der SMPTE-Zeitcode bilden die Indexinformation, die verwendet wird, um das Bild zu lokalisieren.
  • Bilddaten, die aus großen Volumina von Daten ausgewählt werden, die in dem Videoserver 304 gespeichert sind, werden in dem PC 305 über die Datenübertragungsleitung 306 erfasst bzw. übertragen. Beim Betrachten des erfassten Bildes auf der Anzeige des PC 305 führt der Editor ein vorläufiges Aufbereiten durch, indem er zur Verwendung vorgesehene Aufnahmen wählt, Aufnahmen neu ordnet, Zeichen in das Bild einfügt oder das Bild verarbeitet (virtuelle Prozessaufbereitung) und die EDL- Information wird dadurch erzeugt.
  • Um die komprimierten Bilddaten, die Kassetten-ID, der SMPTE- Zeitcode u. dgl. aus dem Videoserver 304 in den PC 305 zu übertragen, werden Daten durch die Datenübertragungsleitung 306 übertragen. Im Falle eines großen Aufbereitungssystems, das in einem Sender o. dgl. verwendet wird, ist nicht nur die in Fig. 17 gezeigte Anlage, sondern sind zahlreiche Bestandteile einer anderen Anlage, wie etwa digitale VTRs, Audiogeräte, Datenspeichergeräte (Archivgeräte) oder andere Geräte als Videoserver und Arbeitsstationen, ebenfalls mit der Datenübertragungsleitung 306 verbunden. Außerdem sind üblicherweise mehr als die in Fig. 17 gezeigten Server und PCs angeschlossen.
  • Das große Aufbereitungssystem, gemäß dem vorstehend erläuterten Stand der Technik, ist mit mehreren Problemen behaftet. Ein erstes Problem besteht darin, dass dann, wenn die Bilddaten von dem ersten Videomaterial 301, dem zweiten Videomaterial 302 und dem dritten Videomaterial 303 zu dem Videoserver 304 übertragen werden, es häufig der Fall ist, dass die Datenübertragungskapazität der Datenübertragungsleitung 306 durch diese Datenübertragungen nahezu aufgebraucht ist, wodurch es nicht möglich ist, andere Daten zu übertragen. Das heißt, die Datenübertragungsrate bzw. -geschwindigkeit, welche die Datenübertragungsleitung 306 bereit zu stellen vermag, hat einen begrenzenden Faktor beim Betrieb des Systems.
  • Wenn eine Anzeige aus komprimierten Bilddaten auf dem PC 305 erzeugt wird, ist selbst dann, wenn die Bilddaten (Videodaten) durch das übliche Bildkompressionsverfahren komprimiert werden, die Datenmenge noch sehr groß. Ein zweites Problem besteht darin, dass, damit die Bilddaten, die aus dem Videoserver 304 wiedergewonnen werden, auf der Anzeige des PC 305 angezeigt werden können, die Daten im Hauptspeicher des PC 305 oder einer daran angebrachten HDD vorliegen müssen. Das Bereitstellen der notwendigen Einrichtungen bzw. Umgebungen in dem PC 305 vergrößert nicht nur die Größe der Anlage; vielmehr spielen auch die Kosten für die Wartung, die Bereitstellung der Umgebung und weitere Betriebsaspekte eine Rolle.
  • Ein drittes Problem besteht darin, dass dann, wenn die Ergebnisse der Aufbereitung, erhalten auf dem PC 305, angezeigt werden als bewegte Bilder auf der Anzeige des PC 305, die Anzeigegeschwindigkeit für das bewegte Bild sehr niedrig ist, weil das Videosignal eine große Informationsmenge selbst dann enthält, wenn die Videodaten komprimiert sind.
  • Ein viertes Problem besteht darin, dass selbst dann, wenn die Bilddaten komprimiert werden, weil das Videosignal eine große Informationsmenge enthält, der Stromverbrauch und die Schaltungskomplexität unvermeidlich hoch sind, um eine derart umfangreiche Information zu handhaben.
  • Ein möglicher Ansatz zur Überwindung des ersten Problems besteht in einer Erhöhung der Übertragungskapazität der Datenübertragungsleitung.
  • Beispielsweise unter Verwendung eines asynchronen Übertragungsmodus (ATM) von 100BASE-T (100-Mbps Ethernet), 100VG- AnyLAN, einer Faserverteilungsdatenschnittstelle (FDDI), einer Twisted-Pair-Faserverteilungsdatenschnittstelle (TPFDDI) o. dgl., vermag die Datenübertragungsleitung eine hohe Übertragungsrate von 100 Megabit pro Sekunde oder mehr zu erzielen. Außerdem ist es möglich, die Übertragungskapazität zusätzlich zu erhöhen, indem mehrere Datenübertragungsleitungen bereit gestellt werden. Dieser Ansatz bietet jedoch keine grundsätzliche Lösung. Dasselbe Datenübertragungskapazitätsproblem wie beim Stand der Technik kann auch dann auftreten, wenn die Anzahl von mit der Datenübertragungsleitung verbundenen Vorrichtungen in einem Studiosystem, in einer Fernsehstation o. dgl. erhöht wird.
  • Ein weiteres Beispiel zum Stand der Technik ist im US-Patent Nr. 5 204 706, 20. April 1993, »MOVING PICTURE MANAGING DEVICE«, lautend auf Akira Saito, offenbart, auf welche Druckschrift nachfolgend als erste Druckschrift Bezug genommen wird. Ein weiteres Beispiel gemäß dem Stand der Technik ist im US-Patent Nr. 5 177 513, 5. Januar 1993, »MOVING PICTURE MANAGING DEVICE AND METHOD OF MANAGING A MOVING PICTURE«, lautend auf Akira Saito, offenbart, auf welche Druckschrift nachfolgend als zweite Druckschrift Bezug genommen wird.
  • Die erste Druckschrift und die zweite Druckschrift offenbaren beide eine Vorrichtung zum Anzeigen eines kleinen Bildes auf einer CRT-Anzeige eines PC o. dgl., so dass der Inhalt von aufgezeichneten Bildern betrachtet werden kann. Auf dieses Bild wird nachfolgend als Browser Bezug genommen. In den ersten und zweiten Druckschriften wird dieses Bild als Icon bezeichnet.
  • Bei einem speziellen Verfahren zum Anzeigen des Browsers verwendet die erste Druckschrift ein bewegtes Bild in codierter Form (ein Bild in komprimierter Form) von einem Halb- bzw. Vollbild der interessierenden Aufnahme und das Halb- bzw. Vollbild wird in eine repräsentative Vollbildschreibposition auf der HDD o. dgl. zur Browseranzeige geschrieben. Das heißt, das Vollbild wird zwei Mal auf den HDD geschrieben. Andererseits verwendet die zweite Druckschrift ein Vollbild, das für die interessierende Aufnahme repräsentativ ist, um das Icon herzustellen und das Vollbild wird auf die Größe des Icon verkleinert. Unter Verwendung des decodierten Bildes wird das Icon in einen HDD o. dgl. geschrieben, um den Browser anzuzeigen.
  • Wie vorstehend erläutert, erzeugt sowohl die erste wie die zweite Druckschrift ein spezielles Bild zum Anzeigen des Browsers, getrennt von dem ursprünglichen komprimierten Bild, und das Browserbild wird auf den HDD zur Verwendung beim Aufbereitungsvorgang geschrieben. Ein fünftes Problem besteht damit darin, dass das Browserbild zusätzlichen Platz auf dem HDD erfordert und dass dadurch die Nutzungsfrequenz des HDD erhöht wird.
  • Zusätzlich hierzu sind in den ersten und zweiten Druckschriften das erste bis vierte Problem bereits erläutert.
  • Da im Fall der ersten Druckschrift der Browser selbst ein komprimiertes Bild ist, wirkt das dritte Problem besonders ausgeprägt.
  • Außerdem tritt bei der zweiten Druckschrift ein sechstes Problem auf, demnach die Bereitstellung einer Schaltung zum Erzeugen des Browsers die Schaltungskomplexität sowie den Stromverbrauch zusätzlich erhöht.
  • Die WO-A-94 29 868 offenbart bereits eine Bildaufbereitungsvorrichtung, aufweisend eine Einrichtung zum Komprimieren von Bilddaten eines Vollbildes durch DCT-Transformation, eine erste Speichereinrichtung zum Speichern der komprimierten Bilddaten des Vollbildes, eine zweite Speichereinrichtung 1503 zum Speichern von Grobbilddaten, eine Abteilungseinrichtung zum Abteilen der Grobbilddaten von den komprimierten Bilddaten, eine Steuereinrichtung zum Steuern der ersten und zweiten Speichereinrichtung und zum Aufbereiten von Daten von bzw. aus der zweiten Speichereinrichtung und zum Anzeigen der Bilddaten des Vollbildes und eine Zusatzinformationserzeugungseinrichtung zur Erzeugung zusätzlicher Information in Bezug auf die Bilddaten des Vollbildes und zum Wiedergeben und Anzeigen der Grobbilddaten.
  • Die WO-A-94 22 108 offenbart das Extrahieren eines Umriß- bzw. Daumennagelbildes auf Grundlage der Gleichstromwerte der DCT- komprimierten Bilddaten, die sowohl Gleichstrom- wie Wechselstromkomponenten in einem einzigen Speicher enthalten.
  • Die WO-A-91 14 334 offenbart ebenfalls ein Daumennagelbild, jedoch unter getrennter Speicherung des Daumennagelbildes und des Bildes mit voller Auflösung.
  • Keine dieser Druckschriften schlägt vor, die Daumennagel- und die verbleibende Feinbildinformation jeweils als durchgehende bzw. zusammenhängende Segmente abzuspeichern.
  • AUFGABE UND ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Aufgabe der Erfindung besteht darin, eine alternative und einfache Lösung zum Umsetzen von hochqualitativen Vollbildern in niedrigqualitative Vollbilder zur Verwendung beim Verarbeitungsprozess zu schaffen.
  • Diese Aufgabe wird durch die Merkmale des Anspruches 1 gelöst.
  • In Übereinstimmung mit der vorliegenden Erfindung werden die folgenden Effekte mit einem kleinen System erhalten, ohne dass eine Schaltung zur Browsererzeugung bereit gestellt werden muss.
  • (1) Die zwischen der Bildspeichereinrichtung und der Aufarbeitungsinformationserzeugungseinrichtung übertragene Datenmenge kann drastisch verringert werden, wodurch eine effiziente Verwendung der Datenübertragungsleitung erzielt wird.
  • (2) Da die für den Aufbereitungsvorgang übertragene Datenmenge klein ist, kann die Aufbereitungsvorrichtung bei verringerten Kosten verwirklicht werden.
  • (3) Die für den Aufbereitungsvorgang übertragene, kleine Datenmenge bedeutet auch eine schnellere Anzeige aufbereiteter Ergebnisse und damit eine Verringerung der Aufbereitungszeit sowie derjenigen Zeit, die erforderlich ist, zusätzliche Information zu erzeugen, wobei das Gesamtergebnis ein erhöhter Wirkungsgrad für die Aufbereitung und zusätzliche Informationserzeugung ist.
  • (4) Die Steuerung von Bestandteilen, einschließlich der CPU, gestaltet sich sehr einfach und die Belastung der Schaltungen kann stark verringert werden.
  • (5) Der Stromverbrauch der Bestandteile, einschließlich der CPU, kann stark verringert werden.
  • (6) Da die Grobbildinformation von einer Harddisk auf einem Videoserver o. dgl. sehr schnell gelesen werden kann, ist der Wirkungsgrad beim Aufbereitungsvorgang u. dgl. stark verbessert.
  • (7) Da die Menge an Grobbildinformation, die von der Harddisk oder auf einem Videoserver o. dgl. gelesen wird, sehr gering ist, ist die Anzahl von Zugriffen verringert und die Standzeit der Harddisk kann verlängert sein.
  • (8) Da ein neues Bild für einen Browser nicht erzeugt werden muss, ist der HDD-Verbrauch gering.
  • Während die neuartigen Merkmale der Erfindung insbesondere mit den anliegenden Ansprüchen ausgeführt sind, läßt sich die Erfindung sowohl hinsichtlich ihres Aufbaues wie ihres Inhalts zusammen mit ihren Aufgaben und Merkmalen aus der folgenden, detaillierten Beschreibung in Verbindung mit den Zeichnungen besser verstehen und würdigen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Fig. 1 zeigt ein Konzeptdiagramm zur Verdeutlichung, wie das Luminanzsignal (Y-Signal) für ein Vollbild in DCT-Blöcke (DCT steht für diskrete Cosinustransformation) unterteilt wird.
  • Fig. 2 zeigt ein Konzeptdiagramm zur Verdeutlichung, wie Farbdifferenzsignale (Cb- und Cr-Signale) für ein Vollbild in DCT- Blöcke unterteilt werden.
  • Fig. 3 zeigt ein Konzeptdiagramm zur Verdeutlichung eines Verfahrens zum Verarbeiten der Reste, die beim Unterteilen der Cb- und Cr-Signale in DCT-Blöcke zurück bleiben.
  • Fig. 4 zeigt ein Diagramm von Daten, nachdem ein DCT-Block in Übereinstimmung mit der Ausführungsform von Fig. 1 DCT-transformiert wurde.
  • Fig. 5 zeigt ein Diagramm der Systemkonfiguration einer Bildaufbereitungsvorrichtung in Übereinstimmung mit einer bevorzugten Ausführung der vorliegenden Erfindung.
  • Fig. 6 zeigt ein Konzeptdiagramm der Basisblöcke zum Anzeigen eines Browsers unter Verwendung von DC-Komponenten.
  • Fig. 7 zeigt ein Konzeptdiagramm zur Verdeutlichung, wie der Browser angezeigt wird.
  • Fig. 8 zeigt ein Diagramm eines Beispiels, wie der Browser zur Vorbereitung eines Nachrichtenmanuskripts verwendet wird.
  • Fig. 9 zeigt ein Diagramm eines Beispiels, wie der Browser beim Aufbereitungsvorgang verwendet wird.
  • Fig. 10 zeigt ein Diagramm der Konfiguration eines Videoservers.
  • Fig. 11 zeigt ein Diagramm der Konfiguration des Videoservers, zusammen mit dem Signalfluss, wenn Daten in den Videoserver geschrieben werden.
  • Fig. 12 zeigt ein Zeit- bzw. Taktdiagramm für einen Datenschreibvorgang in einen Speicher in den Videoserver.
  • Fig. 13 zeigt ein Taktdiagramm für einen Datenschreibvorgang in eine Harddisk, die an den Videoserver angebracht ist.
  • Fig. 14 zeigt ein Konzeptdiagramm zur Verdeutlichung der Übertragung von Grob- und Feinbildinformation zu der Harddisk.
  • Fig. 15 zeigt ein Konzeptdiagramm zur Verdeutlichung des Schreibens von Bildinformation in die Harddisk.
  • Fig. 16 zeigt ein Diagramm der Konfiguration des Videoservers, zusammen mit dem Signalfluss, wenn DC-Komponentendaten aus dem Videoserver gelesen werden, und
  • Fig. 17 zeigt ein Diagramm der Konfiguration der Bildaufbereitungsvorrichtung gemäß dem Stand der Technik, unter Verwendung des Videoservers.
  • Es wird bemerkt, dass einige oder sämtliche der Figuren schematische Wiedergaben zu Darstellungszwecken sind und nicht notwendigerweise die tatsächlichen Relativgrößen und Anordnungspositionen der gezeigten Elemente wiedergeben.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Eine bevorzugte Ausführungsform der vorliegenden Erfindung wird nunmehr unter Bezug auf die anliegenden Zeichnungen erläutert.
  • In der nachfolgend angeführten Beschreibung bedeutet der Begriff »editieren« bzw. »aufbereiten« nicht nur das Neuanordnen der Abfolge von Bilddaten und das Erzeugen von EDL-Information, sondern auch einen Editierungs- bzw. Aufbereitungsprozess in weitestem Sinn, einschließlich beispielsweise das Schreiben eines Manuskripts für ein Nachrichtenprogramm o. dgl., während Bilder betrachtet werden, das Einfügen von Bildunterschriften in Bilder und das Anwenden verschiedener Arten von Verarbeitung von Bildern.
  • Eine Bildspeichereinrichtung zum Speichern von Bilddaten, die mit Fernsehkameras o. dgl. aufgenommen wurden (wobei diese Bilder nachfolgend als Videomaterial bezeichnet sind), und umfassen beispielsweise einen Videoserver. Bei einem Videoserver handelt es sich um ein Gerät, das eine Plattenvorrichtung, wie einen HDD als Speichermedium nutzt und die Nutzung von gespeichertem Videomaterial für zahlreiche Anschlüsse zuläßt. Wenn Videomaterial in eine Bildspeicher- (Aufzeichnungs-)Vorrichtung, wie etwa einen Videoserver gespeichert wird, wird auf das Videomaterial zu Speicherzwecken eine Bildkompression angewendet.
  • Die Bildkompression ist beispielsweise in »FUNDAMENTALS OF DIGITAL IMAGE PROCESSING«, von Anil K. Jain, Prentice-Hall International Edition, erläutert.
  • Eine Vielzahl von Bildkompressionsschemata sind bekannt. Unter anderem handelt es sich bei der diskreten Cosinustransformation (DCT) um eine orthogonale Transformation, die zur Bildkompression weit verbreitet eingesetzt wird, wenn Bilddaten in einer Bildspeicher-(Aufzeichnungs-)Vorrichtung gespeichert werden.
  • Bei der nachfolgend erläuterten, erfindungsgemäßen Ausführungsform wird die Bildkompression auf Grundlage von DCT als ein Beispiel für ein Bildkompressionsverfahren herangezogen.
  • Kompression auf Grundlage von DCT wird in verschiedenen internationalen Standards angewendet, wie etwa MPEG (Moving Picture Experts Group), JPEG (Joint Photographic Experts Group) und H.261. Außerdem wird sie angewendet für digitale VTRs (Videorecorder), einschl. dem DVCPRO-VTR, erläutert in »DVCPRO: A Comprehensive Format Overview«, Proceedings of the 137th SMPTE Technical Conference and World Media Expo MOVING IMAGES: MEETING THE CHALLENGES, The society of Motion Picture and Television Engineers (SMPTE), 6.-9. September 1995, Seite 196- 230. Zahlreiche diesbezügliche Bücher sind ebenfalls veröffentlicht worden.
  • Das Prinzip der Bildkompression auf Grundlage von DCT ist folgendes: Pixelwerte (beispielsweise Helligkeitswerte), die vor der Transformation zufällig verteilt vorliegen, werden nach der Transformation derart angeordnet, dass die wesentliche Information in den Niedrigfrequenzkomponenten konzentriert ist, die große Werte besitzen, und durch Verringern von hochfrequenter Information durch Quantisierung kann eine Gesamtverringerung der Informationsmenge erzielt werden.
  • Die vorliegende Ausführungsform wird insbesondere auf Grundlage des Bildkompressionsschemas erläutert, das bei dem vorstehend genannten DVCPRO-VTR-Standard verwendet wird.
  • Bei der vorliegenden Ausführungsform handelt es sich bei Videosignalen vor der Bildkompression um Komponentensignale, die aus einem Luminanzsignal (nachfolgend als Y-Signal bezeichnet) und zwei Farbdifferenzsignalen R - Y (nachfolgend als Cr-Signal bezeichnet) und B - Y (nachfolgend als Cb-Signal bezeichnet) in dem 525-Zeilen/60-Hertz-System bestehen, d. h. aus den Komponentensignalen des 4 : 2 : 2-Komponentensignalformats, das in der CCIR (International Radio Consultative Committee, aktuell ITU-RS - International Telecommunication Union-Radiocommunication Sector) Empfehlung 601, spezifiziert ist. Die folgende Beschreibung erfolgt beispielsweise durch Heranziehen des so genannten 4 : 1 : 1-Komponentensignals, in dem die zwei Farbdifferenzsignale dezimiert werden, indem sie mit der halben normalen Abtastfrequenz abgetastet werden. Bei dieser Ausführungsform betragen deshalb die Abtastpixelzählraten für ein Vollbild 720 Pixel horizontal und 480 Pixel vertikal für das Y- Signal und 180 Pixel horizontal und 480 Pixel vertikal für sowohl das Cb- als auch für das Cr-Signal.
  • Bei der vorliegenden Ausführungsform beträgt ein DCT-Kompressionsblock (nachfolgend der Einfachheit halber als DCT-Block bezeichnet) 8 · 8 (8 Zeilen · 8 Pixel).
  • Fig. 1 zeigt ein Konzeptionsdiagramm zur Erläuterung, wie das Y-Signal für ein (einziges) Vollbild in die DCT-Blöcke unterteilt wird. Da das Signal in Blöcke von 8 · 8 Pixel unterteilt ist, existieren 90 Blöcke in der horizontalen Richtung und 60 Blöcke in der vertikalen Richtung, d. h. insgesamt 5.400 Blöcke.
  • Fig. 2 zeigt ein Konzeptionsdiagramm zur Erläuterung, wie die Cb- und Cr-Signale für ein (einziges) Vollbild in DCT-Blöcke unterteilt werden. Da jedes Signal in Blöcke aus 8 · 8 Pixel unterteilt wird, existieren in der horizontalen Richtung 22,5 Blöcke und in der vertikalen Richtung 60 Blöcke. Wenn die Pixel in der horizontalen Richtung durch 8 geteilt werden, verbleiben als Rest am rechten Rand vier Pixel.
  • Fig. 3 zeigt ein Konzeptionsdiagramm zur Erläuterung eines Verfahrens zum Verarbeiten der Reste, die nach dem Unterteilen der Cb- und Cr-Signale in DCT-Blöcke zurückbleiben. Wie in Fig. 3 gezeigt, werden vertikal benachbarte Blöcke aus 4 · 8 Pixel am rechten Rand in einen Block von 8 · 8 Pixel zusammengesetzt, wobei der obere Block links und der untere Block rechts angeordnet ist.
  • Wie in Fig. 2 und 3 gezeigt, sind die Cb- und Cr-Signale jeweils in 1.350 Blöcke unterteilt.
  • Daraufhin wird die DCT-Transformation auf die Y-, Cb- und Cr- Signale angewendet, die in die DCT-Blöcke unterteilt sind.
  • Fig. 4 zeigt ein Konzeptionsdiagramm unter Darstellung der Daten, nachdem ein DCT-Block DCT-transformiert worden ist. In Fig. 4 bezeichnet DC die Gleichstromkomponente (nachfolgend der Einfachheit halber als DC-Komponente bezeichnet) nach der DCT-Transformation und AC1, AC2, ..., AC63 sind Wechselstromkomponenten (nachfolgend der Einfachheit halber als AC-Komponenten bezeichnet). Da der 8 · 8-Pixel-Block DC-transformiert wird, belaufen sich die DC-Komponente und die AC-Komponenten zusammen auf insgesamt 64 Komponenten. Wie in Fig. 4 durch die Pfeile gezeigt, sind die AC-Komponenten von links nach rechts mit zunehmender Horizontalfrequenz angeordnet und von oben nach unten mit zunehmender Vertikalfrequenz. Das heißt, die AC-Komponenten zeigen zunehmende Frequenz bei zunehmendem Abstand von der DC-Komponente.
  • In den durch die die DCT-Transformation in Frequenzkomponenten unterteilten Daten stellt die DC-Komponente die grundsätzlichste und wesentlichste Komponente des Bildes dar. Was die AC- Komponenten betrifft, enthalten andererseits Niedrigfrequenzkomponenten grundsätzliche Bildinformation, während Hochfrequenzkomponenten Information bezüglich feiner Einzelheiten des Bildes tragen.
  • Der Kern der vorliegenden Erfindung ist, dass von den DCT- transformierten Daten die DC-Komponente die wesentlichen Bildinformationen enthält, und dass folgend auf die DC-Komponente die Niedrigfrequenz-AC-Komponenten wesentliche Information enthalten, wobei die Wichtigkeit mit zunehmender Frequenz abnimmt. Mit anderen Worten kann mit der Grundinformation allein der Zweck der Darstellung eines groben Inhalts des Bildes ausreichend bewirkt werden, beispielsweise dann, wenn ausschließlich der Inhalt der interessierenden Aufnahme zum nichtlinearen Aufbereiten vorab gesichtet wird, oder wenn ein kleines Bild auf einem Bildschirm angezeigt wird, um einen Aufbereitungspunkt zu wählen. Für den vorstehend genannten Zweck vermag die DC-Komponente alleine ausreichende Information bereitzustellen, und wenn AC-Komponenten verwendet werden, sollten ausschließlich die Niedrigfrequenzkomponenten hinreichen. Die vorliegende Erfindung nutzt diese Eigenschaft aus.
  • Wenn ausschließlich die DC-Komponente verwendet wird, oder wenn die DC-Komponente und einige der AC-Komponenten verwendet werden, besteht deshalb, weil ein Teil des ursprünglich komprimierten Bildes verwendet wird, keine Notwendigkeit, für einen Browser neue Daten zu erzeugen und die Datengesamtmenge nimmt nicht zu. Nach der DCT-Transformation werden die AC-Komponenten für die Codierung quantisiert, indem sie mit zunehmender Frequenz zickzackförmig abgetastet werden, in der Abfolge AC1, AC2, ..., AC63. Nachdem die Pixel in Koeffizienten DCT-transformiert wurden, enthält die DC-Komponente die größte Bildinformationsmenge, und folgend auf die DC-Komponente nimmt die Informationsmenge allmählich ab, wenn die Frequenzen der AC-Komponenten zunehmen. Auf die Quantisierung folgt ein Codieren mit variabler Länge, beispielsweise ein zweidimensionales Huffman-Codieren.
  • Nach dem Quantisieren und dem Codieren mit variabler Länge werden in zahlreichen Fällen die Hochfrequenz-AC-Komponenten zu Null; beispielsweise kann ein bestimmter Block aus der DC- Komponente und den AC-Komponenten bis hin zu AC40 bestehen. Bis zu welcher Höhe die Hochfrequenzkomponenten vorliegen, hängt ab von dem Bild des betroffenen Blocks.
  • Bei dem vorstehend erläuterten Verfahren zum Komprimieren von Bilddaten zu Aufzeichnungszwecken sind das zickzackartige Abtasten, das Quantisieren und das Codieren mit variabler Länge für den Fachmann geläufig und sie werden weitverbreitet in eine Bildaufzeichnungsvorrichtung, wie etwa in digitalen VTRs und in Videoservern eingesetzt.
  • In Übereinstimmung mit der vorliegenden Erfindung ist Information bezüglich feiner Einzelheiten des Bildes nicht notwendigerweise beispielsweise dann erforderlich, wenn das Anzeigen eines Videomaterialbildes (nachfolgend als der Browser bezeichnet) auf einem Monitorschirm eines PCs erfolgt, um einen Aufbereitungspunkt in dem Videomaterial zu wählen, oder um die Abfolge von Aufnahmen neu anzuordnen und die Ergebnisse des vorläufigen Aufbereitens darzustellen, oder wenn Nachrichtenmanuskripte geschrieben werden als zusätzliche Information für Bilddaten, oder wenn EDL-Information für das endgültige Aufbereiten erzeugt wird. Wenn in diesen Fällen das Bild mit einer Qualität angezeigt wird, die lediglich hinreicht, um einen Aufbereitungspunkt zu wählen oder um die Ergebnisse einer Versuchsaufbereitung zu prüfen, oder um spezielles Videomaterial gegenüber zahlreichen Videomaterialteilen und die Anordnung des Bildes in dem Videomaterial zu identifizieren, kann der angestrebte Zweck selbst dann ausreichend erzielt werden, wenn die Bildauflösung niedrig ist. Die vorliegende Erfindung nutzt diese Eigenschaft und erzielt Verringerung der Datenmenge, die auf der Datenübertragungsleitung übertragen wird, und bezüglich der Bliddatenmenge, die in den PC übertragen wird, und zwar durch Anzeigen des Browsers als Grobbildinformation, unter Verwendung von ausschließlich der DC- Komponente nach der DCT-Transformation bzw. der DC-Komponente und von einigen der AC-Komponenten.
  • Bei der Ausführungsform der vorliegenden Erfindung wird von den DC- und AC-Komponenten der durch die DCT-Transformation komprimierten Bilddaten ausschließlich die DC-Komponente verwendet, um die Grobbildinformation zu erzeugen.
  • Außerdem wird ein Videoserver als Bildspeichereinrichtung zum Speichern von Bildinformation verwendet.
  • Ein PC wird als Vorrichtung verwendet, die sowohl als Bildanzeigeeinrichtung wie als Aufbereitungsinformationserzeugungseinrichtung dient.
  • Eine EDL wird als Verarbeitungsaufbereitungsinformation verwendet, die beim tatsächlichen Verarbeitungsaufbereitungsvorgang eingesetzt wird.
  • Eine Videokassettennummer (Kassetten-ID), welche die Videokassette bezeichnet, die die Bilddaten enthält und der SMPTE- Zeitcode werden als Indexinformation verwendet.
  • Fig. 5 zeigt ein Diagramm der Systemkonfiguration der Bildaufbereitungsvorrichtung in Übereinstimmung mit der vorliegenden Ausführungsform.
  • Gemäß Fig. 5 sind ein erstes Videomaterial 101, ein zweites Videomaterial 102, ein drittes Videomaterial 103, ein Videoserver 104 und ein Personalcomputer (PC) 105 über eine Datenübertragungsleitung 106 miteinander verbunden, über die Daten übertragen werden. Als Datenübertragungsleitung 106 kann eine beliebige Übertragungsleitung verwendet werden, so lange sie in der Lage ist, digitale Daten, wie etwa diejenigen zu führen, die verwendet werden in ATM, B-ISDN (Broadband-Integrated Services Digital Network), 100BASE-T, 100VG-AnyLAN, FDDI, TPFDDI, Ethernet (IEEE802.2, IEEE802.3) u. dgl. Bei der vorliegenden Ausführungsform wird eine Datenübertragungsleitung in Übereinstimmung mit Ethernet (IEEE802.2, IEEE802.3) verwendet. In Fig. 5 sind mehrere Pfeile, 110, 111, 112, 113, 114, 115 und 116 zur Erläuterung des Signalflusses gezeigt.
  • Der Pfeil 110 bezeichnet einen Datenfluss von dem ersten Videomaterial 101 zu dem Videoserver 104. Der Pfeil 111 bezeichnet einen Datenfluss von dem zweiten Videomaterial 102 zu dem Videoserver 104. Der Pfeil 112 bezeichnet einen Datenfluss von dem dritten Videomaterial 103 zu dem Videoserver 104. Der Pfeil 113 bezeichnet einen Datenfluss von dem Videoserver 104 zu dem PC 105. Der Pfeil 114 bezeichnet einen Befehlsfluss von dem PC 105 zu dem Videoserver 104. Der Pfeil 115 bezeichnet einen Datenfluss von dem PC 105 zu dem Videoserver 104. Der Pfeil 116 bezeichnet eine Bilddatenausgabe von dem Videoserver 104.
  • Nachfolgend wird der durch die Pfeile 110, 111, 112, 113, 114, 115 und 116 bezeichnete Fluss Signalfluss genannt.
  • Die Arbeitsweise der vorliegenden Ausführungsform wird nunmehr unter Bezug auf Fig. 5 näher erläutert.
  • Bei dem ersten Videomaterial 101, dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 handelt es sich um Videomaterial, das in einem Fernsehstudio oder vor Ort im Freien gewonnen wurde, beispielsweise für die Produktion eines Nachrichtenprogramms. Jedes Videomaterial wird beispielsweise auf eine Videokassette o. dgl. aufgezeichnet und auf einem VTR (Videorecorder) abgespielt. In einigen Fällen kann es sich bei dem Videomaterial um Videodaten handeln, die von vornherein auf einer Speichervorrichtung, wie etwa einem HDD, gespeichert (aufgezeichnet) wurden. Bei dem Videoserver 104 handelt es sich um eine Vorrichtung, die in der Lage ist, große Volumina von Videomaterial zu speichern (aufzuzeichnen). Für den Videoserver wird eine Plattenvorrichtung, wie etwa eine HDD-Vorrichtung, verwendet. Bei der vorliegenden Ausführungsform handelt es sich bei dem ersten Videomaterial 101, dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 jeweils um Videomaterial, das durch eine Fernsehkamera erfasst wird, und das auf einem Videoband in komprimierter Form aufgezeichnet wird. Zur Bildkompression wird das DCT-Verfahren verwendet.
  • Das erste Videomaterial 101 wird auf einem VTR abgespielt und über die Datenübertragungsleitung 106 zu Speicherungszwecken (zur Aufzeichnung) auf den Videoserver 104 übertragen. Dieser Signalfluss ist durch den Pfeil 110 bezeichnet. In ähnlicher Weise wird das zweite Videomaterial 102 auf einem VTR abgespielt und über die Datenübertragungsleitung 106 zur Speicherung (Aufzeichnung) auf den Videoserver 104 übertragen. Dieser Signalfluss ist durch den Pfeil 111 bezeichnet. In ähnlicher Weise wird das dritte Videomaterial 103 auf einem VTR abgespielt und über die Datenübertragungsleitung 106 zur Speicherung (Aufzeichnung) auf den Videoserver 104 übertragen. Dieser Signalfluss ist durch den Pfeil 112 bezeichnet.
  • Bei der vorliegenden Ausführungsform sind drei Videomaterialquellen gezeigt; bei einer tatsächlichen Ausführung in einem Aufbereitungssystem wird jedoch Videomaterial von zahlreichen Quellen in dem Videoserver 104 gespeichert (aufgezeichnet).
  • Bei der vorliegenden Ausführungsform wird die Situation in Betracht gezogen, bei der die Aufbereitung und die Verwendung des ersten Videomaterials 101, des zweiten Videomaterials 102 und des dritten Videomaterials 103 durchgeführt wird, die auf drei unterschiedlichen Videokassetten aufgezeichnet sind. Es wird außerdem angenommen, dass das erste Videomaterial 101, das zweite Videomaterial 102 und das dritte Videomaterial 103 jeweils 30 Minuten Videodaten enthalten, die in den NTSC- (National Television System Committee) Format aufgezeichnet sind. Der SMPTE-Zeitcode (nachfolgend der Einfachheit halber als der Zeitcode bezeichnet) wird gemeinsam mit den Bilddaten in dem jeweiligen Videomaterial aufgezeichnet und das Vollbild ZZ bei WW Stunden, YY Minuten, XX Sekunden wird ausgedruckt als WW : XX : YY : ZZ. Der Zeitcode, startend bei 00 : 00 : 00 und endend bei 00 : 29 : 59 : 29, wird in dem jeweiligen Videomaterial aufgezeichnet.
  • Zunächst überträgt das erste Videomaterial 101 Daten zum Videoserver 104, wie durch den Signalfluss 110 gezeigt. In ähnlicher Weise überträgt das zweite Videomaterial 102 Daten zu dem Videoserver 104, wie durch den Signalfluss 111 gezeigt. In ähnlicher Weise überträgt das dritte Videomaterial 103 Daten zu dem Videoserver 104, wie durch den Signalfluss 112 gezeigt. Die Datenübertragungen können gleichzeitig oder zu unterschiedlichen Zeiten stattfinden. Die Bilddaten von dem ersten Videomaterial 101, dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 werden dadurch in dem Videoserver 104 gespeichert (aufgezeichnet). Daten vom jeweiligen Videomaterial zu dem Videoserver 104 können in Echtzeit übertragen werden oder sie können in der Art einer üblichen Datenübertragung über eine längere Zeitdauer zur Aufzeichnung, nicht in Echtzeit, übertragen werden.
  • Um Aufbereitungspunkte durch Anzeigen des Videomaterials auf der Anzeige des PC 105 zu wählen, gibt eine mit einem Aufbereitungsvorgang befasste Person (nachfolgend als der Editor bezeichnet) einen Befehl von dem PC 105 an den Videoserver 104 aus, wie durch den Signalfluss 114 gezeigt, unter Anforderung einer Übertragung von Bilddaten von dem ersten Videomaterial 101, dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 zu dem PC 105.
  • Es existieren verschiedene Fälle, demnach der Editor eine Datenübertragung von dem Videoserver 104 zu dem PC 105 anfordert. In einigen Fällen kann der Editor volle 30 Minuten-Daten von sowohl dem ersten Videomaterial 101, dem zweiten Videomaterial 102 wie dem dritten Videomaterial 103 anfordern oder mit anderen Worten kann er einen Teil der Daten, beispielsweise zehn Datenminuten anfordern, oder er kann nicht sämtliche Bilddaten-Halbbilder, sondern ausschließlich ein (einziges) rückgewonnenes Vollbild beispielsweise von einer Datensekunde anfordern (beispielsweise ein Vollbild von sämtlichen 30 Vollbildern im Fall des NTSC-Systems).
  • Wie durch den Signalfluss 113 gezeigt, überträgt der Videoserver 104 als nächstes über die Datenübertragungsleitung 106 die Bilddaten, die durch den Signalfluss 114 angefordert werden, und Information, die den Bilddaten gehört, und zwar zu dem PC 105. Insbesondere überträgt der Videoserver 104 die Bilddaten des ersten Videomaterials 101, des zweiten Videomaterials 102 und/oder des dritten Videomaterials 103 zusammen mit der Videomaterialnummer (nachfolgend als ID-Nummer bezeichnet) und dem Zeitcode.
  • Bei der vorliegenden Ausführungsform sind die ID-Nummern wie folgt zugeordnet: ID = 1 bezeichnet das erste Videomaterial 101, ID = 2 bezeichnet das zweite Videomaterial 102 und ID = 3 bezeichnet das dritte Videomaterial 103.
  • Die in den PC 105 übertragenen Bilddaten werden auf der Anzeige angezeigt (das angezeigte Bild wird nachfolgend als der Browser bezeichnet) und während das angezeigte Bild betrachtet wird, führt der Editor ein Editieren bzw. Aufbereiten durch, wie etwa eine Neuanordnung der Abfolge von Aufnahmen (nachfolgend wird dieses Editieren bzw. Aufbereiten als vorläufiges Editieren bzw. Aufbereiten bezeichnet). Das Ergebnis der vorläufigen Aufbereitung wird auf der Anzeige des PC 105 zur Bestätigung angezeigt. Die Bestätigung des Aufbereitungsergebnisses erfolgt unter Verwendung des Browsers.
  • Es wird beispielsweise angenommen, dass entschieden wird, Bilddaten einer Dauer von 1,5 Minuten zusammenzustellen, identifiziert durch den Zeitcode 00 : 10 : 00 : 00 bis 00 : 11 : 29 : 29 von bzw. aus dem ersten Videomaterial 101 (ID = 1), Bilddaten einer Dauer von 30 Sekunden, identifiziert durch den Zeitcode 00 : 20 : 00 : 00 bis 00 : 20 : 29 : 29 von bzw. aus dem zweiten Videomaterial 102 (ID = 2) und Bilddaten einer Dauer 2 Minuten, identifiziert durch den Zeitcode 00 : 15 : 00 : 00 bis 00 : 16 : 59 : 29 von bzw. aus dem dritten Videomaterial 103 (ID = 3).
  • Der Editor vereinigt die Ergebnisse der vorstehend genannten vorläufigen Aufbereitungen auf dem Bildschirm und prüft das Aufbereitungsergebnis auf dem Bildschirm des PCs 105. Daraufhin wird Information bezüglich Aufbereitungspunkten übertragen, wobei die ID-Nummer und der Zeitcode in der Abfolge der Aufbereitungen angeordnet sind, und zwar von dem PC 105 zu dem Videoserver 104, wie durch den Signalfluss 115 gezeigt. Diese Aufbereitungsinformation wird als Aufbereitungsentscheidungsliste bzw. Editierungsentscheidungsliste (EDL) bezeichnet.
  • Der Videoserver 104 empfängt die EDL von dem PC 105 und gibt die Bilddaten aus, wie durch den Signalfluss 116 gezeigt, und zwar in der in der EDL-Information gelisteten Abfolge.
  • Der primäre Zweck der vorliegenden Erfindung besteht darin, die Datenmenge zu verringern, die auf dem Signalfluss 113 übertragen wird, und dadurch eine effiziente Nutzung der Datenübertragungsleitung 106 zu erzielen.
  • Der zur Betrachtung des Videomaterials auf dem Monitorbildschirm des PCs 105 verwendete Browser benötigt nicht notwendigerweise Information bezüglich feiner Einzelheiten des Bildes, wenn der Bildaufbereitungsvorgang durchgeführt wird, wie etwa das Wählen von Aufbereitungspunkten in dem Videomaterial oder das Schreiben eines Nachrichtenmanuskripts durch Betrachten des Bildes. Wenn das Bild mit einer Qualität angezeigt wird, die lediglich ausreicht, einen Aufbereitungspunkt auszuwählen (ausreichend zum Identifizieren einer Videomaterialquelle aus mehreren Videomaterialquellen und einer Stelle bzw. einem Ort in dem Videomaterial), oder die ausschließlich ausreicht, das Aufbereitungsergebnis zu prüfen, kann der Zweck der Bildaufbereitung selbst dann in ausreichender Weise erzielt werden, wenn die Bildauflösung niedrig ist. Die vorliegende Erfindung nutzt diese Eigenschaft und erzielt eine drastische Verringerung der Datenmenge, die auf den Signalfluss 113 übertragen wird.
  • Das Verfahren zum Verringern der Datenmenge, die auf den Signalfluss 113 übertragen wird, wird nunmehr erläutert.
  • Bei dieser Ausführungsform der vorliegenden Erfindung sind in dem Videoserver 104 gespeicherte (aufgezeichnete) Bilddaten bereits durch den DCT-Prozess komprimiert. Nach der DCT-Transformation enthält die DC-Komponente üblicherweise die größte Signalenergie. Was die AC-Komponenten betrifft, gilt, je niedriger die Frequenz, desto größer ist die Energie und je höher die Frequenz, desto kleiner ist die Energie.
  • Wie in Fig. 4 gezeigt, ist DC die wichtigste sämtlicher Daten und nächstwichtig sind diejenigen Komponenten, die nahe zu DC zu liegen kommen, wie etwa AC1, AC2, AC3 usw., wobei die Wichtigkeit mit wachsender Distanz von DC abnimmt.
  • Bei dieser Ausführungsform der vorliegenden Erfindung wird demnach das Bild für den Browser unter Verwendung von ausschließlich der DC-Komponente angezeigt, weil das Bild lediglich mit einer Qualität angezeigt werden muss, die ausreicht, einen Aufbereitungspunkt zu wählen, oder die ausreicht, das Aufbereitungsergebnis zu prüfen.
  • Das Verfahren zum Anzeigen des Browsers unter Verwendung der DC-Komponente wird nunmehr erläutert.
  • Fig. 6 zeigt ein Konzeptionsdiagramm zur Erläuterung der Basisblöcke zum Anzeigen des Browsers unter Verwendung von DC- Komponenten.
  • Die zum Anzeigen des Browsers verwendeten Basisblöcke bestehen insgesamt aus sechs DCT-Blöcken von bzw. aus den Y-, Cb- und Cr-Signalen, das heißt, aus horizontal benachbarten vier DCT- Blöcken Y1, Y2, Y3 und Y4 des Y-Signals und aus den DCT- Blöcken Cb7 und Cr7 der Cb- bzw. Cr-Signale.
  • Bei Y1, Y2, Y3 und Y4 handelt es sich um die DC-Komponenten von horizontal benachbarten vier DCT-Blöcken des Y-Signals. Bei Cb7 und Cr7 handelt es sich um die DC-Komponenten der Cb- und Cr-Signale vom selben Abtastpunkt. Da das Y-Signal vier Mal so viele Probenahmen bzw. Abtastungen wie das Cb- oder Cr- Signal in der horizontalen Richtung aufweist, entsprechend in Fig. 6 die DC-Komponenten der vier Blöcke, Y1 bis Y4, und die entsprechenden Blöcke der Cb- und Cr-Signale entsprechen dem selben Punkt des Bildes (des Browsers). Nachfolgend werden die in Fig. 6 gezeigten DCT-Blöcke gemeinsam als DC-Block bezeichnet.
  • Der Browser wird angezeigt durch Anordnen der DC-Blöcke auf einem Bildschirm derart, dass sie endweise aneinander grenzen.
  • Fig. 7 zeigt ein Konzeptionsdiagramm zur Erläuterung, wie der Browser angezeigt wird. In Fig. 7 bezeichnet das Teil »a« den Browser. Der Browser besteht aus mehreren DC-Blöcken, DC1, DC2, ..., wie im Teil (a) von Fig. 7 gezeigt. Bei DC1, DC2, ... handelt es sich jeweils um den DC-Block, der in Bezug auf Fig. 6 erläutert wurde. DC1 besteht aus vier DC-Komponenten des Y-Signals, DCY1, DCY2, DCY3 und DCY4, und den DC-Komponenten der zwei Farbdifferenzsignale, DCCb1 (DC-Komponente des Cb-Signals) und DCCr1 (DC-Komponente des Cr-Signals), wie in Teil (b) von Fig. 7 gezeigt. In ähnlicher Weise besteht der DC 2 aus vier DC-Komponenten des Y-Signals, DCY5, DCY6, DCY7 und DCY8, und den DC-Komponenten der vier Farbdifferenzsignale, DCCb2 (DC-Komponente des Cb-Signals), und DCCr2 (DC-Komponente des Cr-Signals), wie in Teil (c) von Fig. 7 gezeigt. Wie vorstehend angeführt, wird der Browser durch Anordnen dieser DC- Blöcke auf dem Bildschirm derart erstellt, dass diese endweise aneinander grenzen.
  • Bezüglich der 8 · 4-Pixel-Blöcke der Cb- und Cr-Signale am rechten Rand des Bildschirms in der Darstellung von Fig. 2, sind zwei DCT-Blöcke aus dem Y-Signal und DCT-Blöcke, jeder jeweils aus dem Cb- und Cr-Signalen gemeinsam kombiniert, um einen DC-Block zu erstellen.
  • Als nächstes wird ein Beispiel der Verwendung des in Fig. 7 gezeigten Browsers erläutert.
  • Fig. 8 zeigt ein Diagramm zur Erläuterung eines Beispiels, wie der Browser zur Zubereitung eines Nachrichtenmanuskripts genutzt wird. Fig. 8 zeigt einen PC-Anzeigebildschirm. Ein Vollbild einer Aufnahme, wiedergewonnen aus dem Videomaterial, das in dem Videoserver gespeichert (aufgenommen) ist, wird beispielsweise als Browser 0 auf dem Bildschirm angezeigt. Ein Vollbild, das die Aufnahme wiedergibt, wird als das als Browser angezeigte Vollbild ausgewählt. Während der Browser betrachtet wird, erfasst der Nachrichtenautor den Inhalt des Videomaterials, das gesendet werden soll (Rundfunksendung) und er bereitet ein Nachrichtenmanuskript zu, in dem er Wortprozessorsoftware auf den PC nutzt. In dieser Weise kann ein Nachrichtenmanuskript, das für das Videomaterial geeignet ist, vorbereitet bzw. zubereitet werden.
  • Fig. 9 zeigt ein Diagramm zur Erläuterung eines Beispiels, wie der Browser beim Aufbereitungsvorgang bzw. beim Editierungsvorgang verwendet wird. Beim Aufbereitungsvorgang unter Verwendung einer nichtlinearen Aufbereitungsmaschine werden Browser von aufzubereitenden Aufnahmen zunächst in einem Videomaterialanzeigefenster angezeigt. In Fig. 9 sind Browser 1, Browser 2, Browser 3, Browser 4, Browser 5 und Browser 6, sechs Aufnahmen darstellend, angezeigt. In Fig. 9 entscheidet der Editor, dass er die im Browser 6, im Browser 2, im Browser 5 und im Browser 3 angezeigten Aufnahmen in dieser Abfolge nutzen will und er ordnet diese Browser in einem Aufbereitungsfenster von links nach rechts in der festgelegten Abfolge an. Nichtlineare Aufbereitungssoftware erzeugt EDL-Information auf Grundlage des Zeitcodes, und, falls erforderlich, auf Grundlage der ID-Nummern der Aufnahmen, die in den Browsern gezeigt sind, die derart in dem Aufbereitungsfenster angeordnet sind.
  • Bei der vorstehend angeführten Erläuterung wird der Personalcomputer (PC) als Vorrichtung genutzt, die sowohl als Bildanzeigeeinrichtung als auch als Zusatzinformationserzeugungseinrichtung dient. Dieser PC entspricht dem PC 105 in Fig. 5.
  • Der Datenfluss, wenn ein neues Manuskript zubereitet wird, wird unter Bezug auf Fig. 5 erläutert. In Fig. 5 ist der Betriebsablauf bis hin zur Übertragung der Bilddaten (Grobbildinformation) zu dem PC 105 derselbe wie bei dem vorstehend erläuterten vorläufigen Aufbereiten bzw. Editieren. Nachdem die Bilddaten in den Browser übertragen wurden und angezeigt werden, plant der Editor ein Nachrichtenmanuskript, während er den Browser betrachtet und bereitet ein Nachrichtenmanuskript auf dem PC 105 vor, indem er beispielsweise eine Wortprozessorfunktion nutzt. Das fertiggestellte Nachrichtenmanuskript ist beispielsweise vorgesehen zur Ausgabe an einen Drucker oder ein ähnliches Gerät, oder es wird zu einer anderen Vorrichtung über die Datenübertragungsleitung 106 übertragen oder es wird zu dem Videoserver 104 übertragen, wie durch den Signalfluss 115 gezeigt. Das Nachrichtenmanuskript wird daraufhin gemeinsam mit den Bilddaten ausgegeben, wie durch den Signalfluss 116 gezeigt.
  • Die vorliegende Erfindung ist für eine beliebige Art einer Arbeit anwendbar, die ein Editor durchführt, während er einen Browser betrachtet, der auf einem Bildschirmanzeigegerät (PC) in der vorstehend erläuterten Weise angezeigt wird. In diesem Fall wird die durch bzw. über die Datenübertragungsleitung 106 übertragene Datenmenge stark verringert im Vergleich zu herkömmlichen Systemen. Da die in den PC 105 zugeführte Datenmenge verringert ist, kann die Bildaufbereitungsvorrichtung bei niedrigeren Kosten ausgeführt werden. Die verringerte Datenmenge in der Vorrichtung bzw. dem Gerät (PC), die bzw. das genützt wird, um ein Nachrichtenmanuskript zuzubereiten, bedeutet eine verringerte Zeit, die benötigt wird, den Browser anzuzeigen, und sie führt zu einer möglichst effektiven Zubereitung von Nachrichtenmanuskripten.
  • Da, wie vorstehend erläutert, der Browser angezeigt wird unter Verwendung von ausschließlich DC-Komponenten, können die Manuskriptzubereitung und die Bildaufbereitung für ein neues Programm begleitet sein durch unmittelbares Übertragen der DC- Komponenten, der Videomaterial-ID-Nummer und des Zeitcodes.
  • Das Verhältnis der Datenmenge zwischen den DC- und AC-Komponenten variiert deutlich, abhängig vom Bild. Wenn das Verhältnis der DC-Komponenten zu den AC-Komponenten beispielsweise 1 : 9 beträgt, kann deshalb, weil die Videomaterial-ID-Nummer und die Zeitcodedaten vernachlässigbar sind im Vergleich zu den Bilddaten, die auf dem Signalfluss 113 übertragene Datenmenge um einen Faktor von nahezu 10 verringert werden.
  • Beispielsweise wird der Fall in Betracht gezogen, demnach die Datenmenge von sowohl dem ersten Videomaterial 101, wie dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 30 Megabits pro Sekunde beträgt und die Datenübertragungskapazität der Datenübertragungsleitung 106 100 Megabits pro Sekunde beträgt.
  • Vorliegend wird angenommen, dass das erste Videomaterial 101, das zweite Videomaterial 102 und das dritte Videomaterial 103 jeweils Übertragungsdaten sind, wie durch die Signalflüsse 110, 111 und 112 gezeigt. In diesem Fall werden 90 Megabits pro Sekunde von der 100 Megabits pro Sekunde Datenübertragungskapazität der Datenübertragungsleitung 106 genutzt, wodurch lediglich 10 Megabits pro Sekunde als verfügbare Kapazität verbleiben. Um einen Aufbereitungsvorgang auf dem PC 105 durchzuführen, ist die durch den Signalfluss 113 gezeigte Datenübertragung erforderlich.
  • Wenn in dieser Situation die vorliegende Erfindung nicht angewendet werden würde, wäre die verbleibende Übertragungskapazität von 10 Megabits pro Sekunde nicht ausreichend für eine Bilddatenübertragung, weil der Signalfluss 113 eine Übertragungsrate von 30 Megabits pro Sekunde benötigt. Mit dem Aufbereitungsvorgang müsste damit gewartet werden bis zur Beendigung der Videomaterialübertragungen.
  • Wenn hingegen die vorliegende Erfindung angewendet wird, benötigt der Signalfluss 113 eine Datenübertragungsrate von lediglich 3 Megabits pro Sekunde, entsprechend einer 10-fachen Verringerung im Vergleich zu den 30 Megabits pro Sekunde. Der Aufbereitungsvorgang kann damit gleichzeitig mit den Videomaterialübertragungen durchgeführt werden.
  • Bei dieser in Fig. 5 gezeigten Ausführungsform sind drei Videomaterialquellen, ein PC und ein Videoserver gezeigt; bei einem Aufbereitungssystem in einer Fernsehrundfunkstation o. dgl. besteht das System jedoch aus der Nutzung von zahlreichen Videomaterialquellen, vielen PCs und vielen Videoservern und, aufgesetzt hierauf, aus vielen Workstations, VTRs, Plattenvorrichtungen, Fernsehmonitoren, Aufbereitungsmaschinen u. dgl.
  • Da die Möglichkeit besteht, dass sämtliche dieser Vorrichtungen bzw. Geräte unter Verwendung der Datenübertragungsleitung Daten übertragen können, werden große Datenvolumina durch das System insgesamt übertragen. Das Datenübertragungsmengenverringerungsverfahren gemäß der vorliegenden Erfindung ist besonders wirksam in eben diesen Situationen.
  • Da die Datenmenge, die in die Aufbereitungsvorrichtung übertragen wird, wie etwa in einen PC, stark verringert ist, kann die Aufbereitungsvorrichtung unter Verwendung eines PCs mit einem viel kleineren Hauptspeicher oder einer viel kleineren Harddisk-Kapazität ausgeführt werden, die erforderlich ist, um Bilddaten zu speichern.
  • Wenn die Ergebnisse der auf der Aufbereitungsvorrichtung, wie etwa einem PC, ausgeführten Aufbereitung angezeigt werden, wie etwa bewegte Bilder auf der Anzeige des PCs, das heißt, wenn die aufbereiteten Ergebnisse als bewegte Bilder vorab betrachtet werden bzw. vorläufig betrachtet werden, ist deshalb, weil die Menge an erfassten Daten klein ist, die Anzeigegeschwindigkeit für die Aufbereitungsergebnisse schnell und der Aufbereitungswirkungsgrad ist stark verbessert, Belastungen der CPU, des Hauptspeichers und der Harddisk des PCs werden ebenfalls unterbunden.
  • Als nächstes werden die Konfiguration und die Arbeitsweise des Videoservers 104 unter Bezug auf die Zeichnungen erläutert.
  • Fig. 10 zeigt ein Diagramm der Konfiguration des Videoservers 104. In Fig. 10 führt eine I/O-Datensteuerschaltung 1501 eine Verarbeitung zum Anordnen komprimierter Bilddaten, die von außen eingegeben werden, auf eine Datenübertragungsleitung 1507 zum Übertragen der Daten in den Videoserver 104 durch, und sie führt außerdem die Verarbeitung zum Ausgeben von Daten zur Außenseite durch, die auf der Datenübertragungsleitung 1507 nach außen übertragen werden.
  • Ein Feinbildinformationsspeicher 1502 speichert komprimierte Bilddaten (Hochfrequenzdaten) mit Ausnahme von groben Bilddaten. Ein Grobbildinformationsspeicher 1503 speichert Grobbildinformation, die einen groben Inhalt der komprimierten Bilddaten wiedergibt.
  • Der Feinbildinformationsspeicher 1502 und der Grobbildinformationsspeicher 1503 weisen jeweils einen Schreibfreigabeanschluss auf, der gesperrt ist (Schreiben gesperrt), wenn er auf einem hohen Pegel (nachfolgend mit H abgekürzt) eingestellt ist, und der freigegeben ist (Schreiben freigegeben), wenn ein niedriger Pegel (nachfolgend mit L abgekürzt) gewählt ist. Der Feinbildinformationsspeicher 1502 und der Grobbildinformationsspeicher 1503 besitzen jeweils einen Lesefreigabeanschluss, der gesperrt (Lesen gesperrt) ist, wenn er mit H gewählt ist, und der freigegeben (Lesen freigegeben) ist, wenn er auf L gesetzt ist.
  • Eine CPU 1504 steuert den gesamten Schaltkreis innerhalb des Videoservers 104. Eine Harddisksteuereinrichtung 1505 steuert Datenschreib- und -lesevorgänge auf einer Harddisk 1506. Die Harddisk 1506 speichert Daten (zeichnet sie auf). Die Datenübertragungsleitung 1507 wird zur Übertragung komprimierter Bilddaten und von verschiedenen Arten von Steuerinformation genutzt. Bei der vorliegenden Ausführungsform kann die Datenübertragungsleitung 1507 durch eine beliebige Art einer Übertragungsleitung ausgeführt sein, so lange sie digitale Daten zu führen vermag. Bei dieser Ausführungsform wird ein PCI-(Peripheral Component Interconnect)Bus verwendet.
  • Der Pfeil 1508 bezeichnet eine Kommunikationsleitung zum Übertragen unterschiedlicher Arten von Steuerinformation zwischen der I/O-Datensteuerschaltung 1501 und der CPU 1504. Der Pfeil 1509 bezeichnet ein Schreibfreigabesignal, das die CPU 1504 an den Feinbildinformationsspeicher 1502 ausgibt, um einen Datenschreibvorgang in den Feinbildinformationsspeicher 1502 freizugeben.
  • Der Pfeil 1510 bezeichnet ein Lesefreigabesignal, das die CPU 1504 an den Feinbildinformationsspeicher 1502 ausgibt, um einen Datenlesevorgang aus dem Feinbildinformationsspeicher 1502 freizugeben. Der Pfeil 1511 bezeichnet ein Schreibfreigabesignal, das die CPU 1504 an den Grobbildinformationsspeicher 1503 ausgibt, um einen Datenschreibvorgang in den Grobbildinformationsspeicher 1503 freizugeben. Der Pfeil 1512 bezeichnet ein Lesefreigabesignal, das die CPU 1504 an den Grobbildinformationsspeicher 1503 ausgibt, um einen Datenlesevorgang aus dem Grobbildinformationsspeicher 1503 freizugeben.
  • Die Konfiguration des Videoservers 104 gemäß der vorliegenden Ausführungsform ist erläutert worden.
  • Als nächstes wird die Arbeitsweise des Videoservers 104 unter Bezug auf weitere Zeichnungen erläutert.
  • Fig. 11 zeigt ein Diagramm der Konfiguration des Videoservers 104, zusammen mit dem Signalfluss, wenn Daten in den Videoserver 104 geschrieben werden. Fig. 11 zeigt denselben Videoserver 104, der auch in Fig. 10 gezeigt ist. Zur Erleichterung der Erläuterung bezeichnen Pfeile 1650, 1651, 1652, 1653, 1654 und 1655 jeweils einen Signalfluss.
  • Der Pfeil 1650 bezeichnet einen Signalfluss von einer Vorrichtung bzw. einem Gerät außerhalb des Videoservers 104 zu der I/O-Datensteuerschaltung 1501. Der Pfeil 1651 bezeichnet einen Signalfluss von der I/O-Datensteuerschaltung 1501 zu dem Feinbildinformationsspeicher 1502. Der Pfeil 1652 bezeichnet einen Signalfluss von der I/O-Datensteuerschaltung 1501 zu dem Grobbildinformationsspeicher 1503. Der Pfeil 1653 bezeichnet einen Signalfluss von dem Feinbildinformationsspeicher 1502 zu bzw. in die Harddisksteuereinrichtung 1505. Der Pfeil 1654 bezeichnet einen Signalfluss von dem Grobbildinformationsspeicher 1503 zu der bzw. in die Harddisksteuereinrichtung 1505.
  • Der Pfeil 1655 bezeichnet den Signalfluss der Grobbildinformation, ausgegeben aus dem Grobbildinformationsspeicher 1503 und überführt über die Datenübertragungsleitung 1507 zu der bzw. in die I/O-Datensteuerschaltung 1501 zur Ausgabe aus dem Videoserver 104 heraus. Die Dateninhalte sind dieselben wie das durch den Pfeil 1654 bezeichnete Signal.
  • Fig. 12 zeigt ein Zeitsteuer- bzw. Taktdiagramm für einen Datenschreibvorgang in den Feinbildinformationsspeicher 1502 und den Grobbildinformationsspeicher 1503. Fig. 13 zeigt ein Zeitsteuer- bzw. Taktdiagramm für einen Datenschreibvorgang aus dem Feinbildinformationsspeicher 1502 und dem Grobbildinformationsspeicher 1503 zu der bzw. in die Harddisk 1506. In Fig. 12 und 13 kennzeichnet eine Schrägschraffur ungültige Daten.
  • Datenschreibvorgänge zu den bzw. in den Videoserver 104 werden nunmehr unter Bezug auf Fig. 11, 12 und 13 erläutert.
  • In Fig. 12 handelt es sich bei dem Signal 1301 um einen Systemtakt des Videoservers 104. Bei dem Signal 1302 handelt es sich um ein eingegebenes, komprimiertes Bildsignal, bei dem es sich um das Signal handelt, das durch den Pfeil 1650 bezeichnet ist (Fig. 11). Die DC- und AC-Komponenten dieses Signals werden in die I/O-Datensteuerschaltung 1501 eingegeben. Die I/O-Datensteuerschaltung 1501 sendet ein Datenankunftssignal 1508 zu der CPU 1504. Nach einer Verzögerung von zwei Taktimpulsen zur Ermöglichung einer Signalverarbeitung in der I/O- Datensteuerschaltung 1501 wird das komprimierte Bildsignal von der I/O-Datensteuerschaltung 1501 auf die Datenübertragungsleitung 1507 ausgegeben. Der Zeitverlauf bzw. die Zeitsteuerung dieses Vorgangs ist durch das Signal 1303 wiedergegeben. Synchron zur Ausgabe der DC-Komponente wird das Schreibfreigabesignal 1511 in den bzw. zu dem Grobbildinformationsspeicher 1503 durch die CPU 1504 auf L gesetzt. Der Betätigungszeittakt bzw. der Betätigungszeitverlauf des Schreibfreigabesignals 1511 ist durch das Signal 1304 wiedergegeben.
  • Das Schreibfreigabesignal 1509 zu dem bzw. in den Feinbildinformationsspeicher 1502 wird durch die CPU 1504 synchron zur Ausgabe der AC-Komponente auf L gesetzt. Der Betätigungszeitverlauf bzw. -takt des Schreibfreigabesignals 1509 ist durch das Signal 1305 wiedergegeben.
  • Wenn, wie vorstehend erläutert, die Grobbilddaten auf die Datenübertragungsleitung 1507 übertragen werden, befindet sich die Schreibfreigabe zu dem bzw. in den Grobbildinformationsspeicher 1503 auf L, und wenn die Feinbilddaten auf die Datenübertragungsleitung 1507 übertragen werden, befindet sich die Schreibfreigabe zu dem bzw. in den Feinbildinformationsspeicher 1502 auf L. Mit diesen Vorgängen wird ausschließlich die Grobbildinformation (die DC-Komponenten) in den Grobbildinformationsspeicher 1503 geschrieben und ausschließlich die Feinbildinformation (AC-Komponenten) wird in den Feinbildinformationsspeicher 1502 geschrieben.
  • Lesevorgänge von den jeweiligen Speichern und Schreibvorgänge auf die Harddisk 1506 werden nunmehr erläutert.
  • Zunächst treibt die CPU 1504 das Lesefreigabesignal 1512 auf L zu dem bzw. in den Grobbildinformationsspeicher. Der Betätigungszeitverlauf des Lesefreigabesignals 1512 zu diesem Zeitpunkt ist durch das Signal 1402 in Fig. 13 dargestellt und der Betätigungszeitverlauf der Daten, die auf der Datenübertragungsleitung 1507 ausgegeben werden, ist durch das Signal 1403 wiedergegeben. Bei dem Signal 1401 handelt es sich um den Systemtakt des Videoservers 104, der derselbe ist wie derjenige, der durch das Signal 1301 dargestellt ist. Die DC-Komponenten werden sequenziell ausgelesen, bis sämtliche Daten, die in dem Grobbildinformationsspeicher 1503 gespeichert sind, ausgegeben sind. Die ausgelesenen DC-Komponenten werden auf der Datenübertragungsleitung 1507 ausgegeben und zu der Harddisksteuereinrichtung 1505 übertragen. Der Datenfluss zu diesem Zeitpunkt ist durch den Pfeil 1654 gezeigt (Fig. 11). Während dieser Periode wird das Lesefreigabesignal 1512 auf L gehalten, wie in Fig. 13 durch das Signal 1402 gezeigt.
  • Wenn sämtliche der DC-Komponenten aus dem Grobbildinformationsspeicher 1503 ausgegeben sind, wird das Lesefreigabesignal 1512 auf H gesetzt, wie durch das Signal 1402 gezeigt, und gleichzeitig wird das Lesefreigabesignal 1510 in dem Feinbildinformationsspeicher 1502 auf L gesetzt, wie durch das Signal 1404 gezeigt. Beim nächsten Taktimpuls, nachdem das Lesefreigabesignal 1510 auf L gesetzt ist, wird damit begonnen, die AC-Komponenten, die in dem Feinbildinformationsspeicher 1502 gespeichert sind, auszugeben. Sämtliche der AC-Komponenten, die in dem Feinbildinformationsspeicher 1502 gespeichert sind, werden zu der Harddisksteuereinrichtung 1505 über die Datenübertragungsleitung 1507 übertragen. Der Datenfluss zu diesem Zeitpunkt ist durch den Pfeil 1653 dargestellt.
  • Fig. 14 zeigt ein Konzeptionsdiagramm zur Erläuterung der Übertragung der Grobbildinformation und der Feinbildinformation zu der bzw. auf die Harddisk 1506. Das heißt, das Diagramm zeigt die Signalflüsse 1654 und 1653 (gezeigt in Fig. 11) durch bzw. über die Datenübertragungsleitung 1507.
  • Anhand von Fig. 14 wird nunmehr erläutert, wie die Grobbildinformation und die Feinbildinformation auf die Harddisk 1506 übertragen werden. Fig. 14 zeigt die Übertragung der Bilddaten für ein Vollbild.
  • Zunächst werden die DC-Komponenten des Y-Signals, gezeigt bzw. dargestellt in dem Luminanzsignalgrobbildinformationsteil 1201, übertragen. Als nächstes werden die DC-Komponenten des Cb-Signals, dargestellt bzw. gezeigt in dem Farbdifferenzsignalgrobbildinformationsteil 1202, übertragen. Als nächstes werden die DC-Komponenten des Cr-Signals, gezeigt in dem Farbdifferenzsignalgrobbildinformationsteil 1203, übertragen. Als nächstes werden die AC-Komponenten des Y-Signals, dargestellt bzw. gezeigt in dem Luminanzsignalfeinbildinformationsteil 1204, übertragen. Als nächstes werden die AC-Komponenten des Cb-Signals, dargestellt bzw. gezeigt in dem Farbdifferenzsignalfeinbildinformationsteil 1205, übertragen. Als nächstes werden die AC-Komponenten des Cr-Signals, gezeigt in dem Farbdifferenzsignalfeinbildinformationsteil 1206, übertragen.
  • Bei dieser Ausführungsform der vorliegenden Erfindung liegen so viele DC-Komponenten des Y-Signals vor, wie DCT-Blöcke im Y-Signal vorliegen, das heißt, insgesamt 5.400 DC-Komponenten pro Vollbild. Die Anzahl der DC-Komponenten des Cb-Signals und die Anzahl der DC-Komponenten des Cr-Signals sind dieselben wie die Anzahl der DCT-Blöcke in dem Cb-Signal und die Anzahl der DCT-Blöcke des Cr-Signals. Das heißt, es existieren 1.350 DC-Blöcke pro Vollbild für jedes Farbdifferenzsignal.
  • Die Anzahl der AC-Komponenten von sowohl dem Y-Signal als auch den Cb- und Cr-Signalen variieren zwischen den Vollbildern, weil die Anzahl von AC-Komponenten, die in jedem Block auf Null quantisiert sind, abhängig vom Bild variieren. Bei dem Beispiel von Fig. 14, welche die vorliegende Ausführungsform zeigt, besitzt das Y-Signal 200.000 AC-Komponenten, das Cb-Signal besitzt 40.000 AC-Komponenten und das Cr-Signal besitzt 50.000 AC-Komponenten.
  • Wenn ein Bearbeitungsvorgang anliegt, wie etwa ein Aufbereitungsvorgang, der eilig ausgeführt werden muss, werden die DC- Komponenten aus dem Videoserver 104 von der I/O-Datensteuerschaltung 1501 ausgegeben, und zwar gleichzeitig wie die Bildinformation auf die Harddisk 1506 übertragen wird.
  • Zu diesem Zeitpunkt muss die I/O-Datensteuerschaltung 1501 lediglich die Bildinformation nach außen nur dann ausgeben, wenn die DC-Komponenten durch bzw. über die Datenübertragungsleitung 1507 übertragen werden. Das heißt, die I/O-Datensteuerschaltung 1501 ist nur dann zur Ausgabe freigegeben, wenn das Luminanzsignalgrobbildinformationsteil 1201, das Farbdifferenzsignalgrobbildinformationsteil 1202 und das Farbdifferenzsignalgrobbildinformationsteil 1203 durch bzw. über die Datenübertragungsleitung 1507 übertragen werden, wie durch den Pfeil 1654 dargestellt. Die I/O-Datensteuerschaltung 1501 sollte zur Ausgabe gesperrt sein, wenn das Luminanzsignalfeinbildinformationsteil 1204, das Farbdifferenzsignalfeinbildinformationsteil 1205 und das Farbdifferenzsignalfeinbildinformationsteil 1206 durch bzw. über die Datenübertragungsleitung 1507 übertragen werden, wie durch den Pfeil 1653 dargestellt.
  • Der Zeitpunkt bzw. Takt zur Freigabe und zum Sperren der I/O- Datensteuerschaltung 1501 für die Ausgabe wird durch das Signal 1508 von der CPU 1504 gesteuert. Da bei der vorliegenden Erfindung die Grobbildinformation und die Feinbildinformation jeweils in mehreren aneinander grenzenden bzw. zusammenhängenden Segmenten übertragen werden, tritt ein Umschalten der Steuerung von der CPU 1504 selten auf. Dies erleichtert deutlich die Steuerung und verringert dramatisch die Belastung der CPU 1504.
  • Dies ermöglicht es außerdem, den Stromverbrauch der I/O-Datensteuerschaltung 1501 sowie der CPU 1504 zu verringern.
  • Die aus dem Grobbildinformationsspeicher 1503 gelesenen DC- Komponenten und die aus dem Feinbildinformationsspeicher 1502 gelesenen AC-Komponenten werden zu der Harddisksteuereinrichtung 1505 übertragen und auf die Harddisk 1506 in der Abfolge geschrieben, in der sie übertragen wurden.
  • Fig. 15 zeigt ein Konzeptdiagramm zur Erläuterung des Schreibvorganges von Bildinformationen auf die Harddisk 1506. Wie in Fig gezeigt, wird die Bildinformation in der folgenden Abfolge geschrieben: Grobbildinformation des Luminanzsignals (die DC- Komponenten des Y-Signals), dargestellt als Luminanzsignalgrobinformationsteil 1101, die Grobinformation des Farbdifferenzsignals Cb (die DC-Komponenten des Cb-Signals), dargestellt als Farbdifferenzgrobinformationsteil 1102, die Grobinformation des Farbdifferenzsignals Cr (die DC-Komponenten des Cr-Signals), dargestellt als Farbdifferenzsignalgrobinformationsteil 1103, die Feininformation des Luminanzsignals (die AC-Komponenten des Y-Signals), dargestellt als Luminanzsignalfeininformationsteil 1104, die Feininformation des Farbdifferenzsignals Cb (die AC-Komponenten des Cb-Signals), dargestellt als Farbdifferenzsignalfeininformationsteil 1105, und die Feininformation des Farbdifferenzsignals Cr (die AC- Komponenten des Cr-Signals), gezeigt als Farbdifferenzsignalfeininformationsteil 1106.
  • Üblicherweise werden die Daten in mehrere Blöcke unterteilt, wenn sie auf eine Platte geschrieben werden. In Fig. 15 ist das Konzept zum Aufzeichnen von Daten in Blöcken dargestellt, unter Verwendung von doppelköpfigen Pfeilen, die jeweils eine (einzige) Blockeinheit festlegen.
  • Fig. 16 zeigt ein Diagramm der Konfiguration des Videoservers, zusammen mit dem Signalfluss, wenn DC-Komponentendaten von bzw. aus dem Videoserver gelesen werden.
  • Unter Bezug auf Fig. 16 wird nunmehr erläutert, wie DC-Komponentendaten, aufgezeichnet auf der Harddisk 1506, von bzw. aus dem Videoserver ausgegeben werden.
  • Fig. 16 zeigt denselben, in Fig. 10 gezeigten Videoserver. Zur Erleichterung der Erläuterung sind Pfeile 1750, 1751 und 1752 dargestellt, die jeweils einen Signalfluss bezeichnen.
  • Der Pfeil 1750 bezeichnet den Signalfluss von der Harddisksteuereinrichtung 1505 zu dem Grobbildinformationsspeicher 1503. Der Pfeil 1751 bezeichnet den Signalfluss von dem Grobbildinformationsspeicher 1503 zu der I/O-Datensteuerschaltung 1501. Der Pfeil 1752 bezeichnet den Signalfluss von der I/O- Datensteuerschaltung 1501 zur Außenseite des Videoservers 104.
  • Zunächst sendet die CPU 1504 eine Datenausleseinstruktion an die Harddisksteuereinrichtung 1505 über die Datenübertragungsleitung 1507. Diese Instruktion dient zum Rückgewinnen von ausschließlich Grobbildinformation von bzw. aus der Harddisk 1506, anstatt zur Gewinnung sämtlicher Daten.
  • Die Harddisksteuereinrichtung 1505 steuert die Harddisk 1506 und gewinnt ausschließlich Grobbildinformation (DC-Komponenten) rück. Das heißt, das Luminanzsignalgrobbildinformationsteil 1101, das Farbdifferenzgrobbildinformationsteil 1102 und das Farbdifferenzgrobbildinformationsteil 1103, die in Fig. 15 gezeigt sind, werden rückgewonnen. Der Signalfluss zu diesem Zeitpunkt ist durch den Pfeil 1750 wiedergegeben.
  • Die Grobbildinformation, die aus der Harddisk 1506 gelesen wird, wird über die Datenübertragungsleitung 1507 übertragen und in den Grobbildinformationsspeicher 1503 gespeichert. Zu diesem Zeitpunkt setzt die CPU 1504 das Schreibfreigabesignal 1511 auf L, wenn die Grobbildinformation auf der Datenübertragungsleitung 1507 angelegt wird, wodurch die Grobbildinformation in den Grobbildinformationsspeicher 1503 geschrieben wird.
  • Als nächstes wird die in dem Grobbildinformationsspeicher 1503 gespeicherte Grobbildinformation zu der I/O-Datensteuerschaltung 1501 über die Datenübertragungsleitung 1507 übertragen.
  • Zu diesem Zeitpunkt setzt die CPU 1504 das Lesefreigabesignal 1512 auf L, wenn die Grobbildinformation auf der Datenübertragungsleitung 1507 ausgegeben wird, wodurch die Grobbildinformation von dem Grobbildinformationsspeicher 1503 ausgegeben werden kann.
  • Die I/O-Datensteuerschaltung 1501 wandelt die Grobbildinformation in eine Form, die nach außen ausgegeben werden kann. Zu diesem Zeitpunkt steuert die CPU 1504 die I/O-Datensteuerschaltung 1501 durch das Signal 1508 zur Steuerung des Zeitpunkts bzw. Takts zum Ausgeben der Daten, die aus dem Grobbildinformationsspeicher 1503 übertragen werden.
  • Bei dem vorstehend angeführten Vorgang zum Auslesen von DC- Komponentendaten aus dem Videoserver vermögen die Harddisk 1506 und die Harddisksteuereinrichtung 1505 zu ihrer Steuerung die jeweiligen Aufgaben auszuführen, indem ausschließlich Abschnitte ausgelesen werden, wo die DC-Komponenten zusammenhängend aufgezeichnet sind.
  • Das heißt, der Auslesevorgang kann durch Auslesen (Zugreifen) ausschließlich auf Blöcke ausgeführt werden, wo das Luminanzsignalgrobbildinformationsteil 1101, das Farbdifferenzsignalgrobbildinformationsteil 1102 und das Farbdifferenzsignalgrobbildinformationsteil 1103, gezeigt in Fig. 15, geschrieben werden.
  • Da das Verhältnis des Luminanzsignalgrobbildinformationsteils 1101, des Farbdifferenzsignalgrobbildinformationsteils 1102 und des Farbdifferenzsignalgrobbildinformationsteils 1103 zur gesamten, in Fig. 15 gezeigten Information sehr klein ist, kann die Grobbildinformation sehr schnell aus der Harddisk 1506 ausgelesen werden und die Lebensdauer der Harddisk 1506 kann damit verlängert werden.
  • Da die Betätigungszeit der Harddisk 1506 und der Harddisksteuereinrichtung 1505 kurz wird, kann der Stromverbrauch drastisch verringert werden.
  • Diese Effekte werden ermöglicht durch Aufzeichnen der mehreren Segmente der Grobbildinformation in zusammenhängender Weise auf der Harddisk, das heißt, mit Schreibblöcken der Grobbildinformation, zusammenhängend angeordnet auf der Harddisk.
  • Der Bildinformationsspeicher 1502 muss überhaupt nicht betätigt werden und außerdem besteht keine Notwendigkeit, die Signale 1509 und 1510 zu steuern. Dies hat die Wirkung einer drastischen Verringerung des Stromverbrauchs des Feinbildinformationsspeichers 1502 und der CPU 1504, während die Last bzw. Belastung der CPU 1504 deutlich verringert wird.
  • In Fig. 10 sind der Grobbildinformationsspeicher 1503 und der Feinbildinformationsspeicher 1502 jeweils aus zwei Speicherabschnitten aufgebaut, von denen der eine zum Schreiben und der andere zum Auslesen verwendet wird, so dass die Daten ohne Unterbrechung durch Umschalten der beiden Speicherabschnitte zwischen Lese- und Schreibbetriebsarten geschrieben und ausgelesen werden können.
  • Der Grobbildinformationsspeicher 1503 und der Feinbildinformationsspeicher 1502 müssen nicht notwendigerweise getrennt bereit gestellt werden. Beispielsweise kann durch Speichern der Grobbildinformation bei niedrigen Speicheradressen und der Feinbildinformation bei hohen Speicheradressen die vorliegende Erfindung ausgeführt werden unter Verwendung eines (einzigen) Bildinformationsspeichers.
  • Die vorstehend angeführte Ausführungsform ist erläutert worden auf Grundlage des Videoservers als Beispiel der Speichervorrichtung (Aufzeichnungsvorrichtung) zum Speichern von Videomaterial; es können jedoch auch andere Vorrichtungen, wie etwa ein digitaler VTR, ein Halbleiterspeicher, eine Harddisk, eine Videodisk u. dgl. verwendet werden, so lange die Vorrichtung in der Lage ist, Bilddaten zu speichern. Auch in diesem Fall kann die vorliegende Erfindung in derselben Weise ausgeführt werden.
  • Bei der vorstehend angeführten Ausführungsform ist ein Nachrichtenmanuskript als Beispiel einer zusätzlichen Information, betreffend die Bildinformation, genannt worden; die zusätzliche Information ist jedoch nicht auf das Nachrichtenmanuskript beschränkt. Eine beliebige Informationsart, wie etwa EDL-Information, verwendet für den Aufbereitungsvorgang, oder in den Bildschirm (das Bild) eingesetzte Bildunterschriften können verwendet werden, so lange die Information das betroffene Bild betrifft. Auch in diesem Fall ist die vorliegende Erfindung wirksam.
  • Bei der vorstehend angeführten Ausführungsform ist außerdem die DCT-Transformation zur Bilddatenkompression verwendet worden. Es wird hier erneut darauf hingewiesen, dass der Kern der vorliegenden Erfindung darin besteht, dass dann, wenn die Komponenten der komprimierten Bilddaten in unterschiedlichen Graden Wichtigkeit besitzen, Bilddaten von wesentlichen Komponenten extrahiert werden, die ausschließlich erforderlich sind, um den Bildinhalt zu identifizieren, und die extrahierten Bilddaten werden zur Anzeige (Browsing) übertragen. Das Kompressionsverfahren muss deshalb nicht auf die DCT- Transformation beschränkt werden; vielmehr können Kompressionsschemata unter Verwendung anderer orthogonaler Transformationen, wie etwa der K-L-Transformation, der DST- Transformation, der Hadamard-Transformation, der Haar- Transformation, der Fourier-Transformation und der Schrägverlaufstransformation (Slant transform) eingesetzt werden, so lange das Transformationsergebnis der Bilddatenkomponenten unterschiedliche Grade von Wichtigkeit ergibt, so dass die Bilddaten unter Verwendung des Wichtigkeitsunterschied komprimiert werden können. Unter Verwendung von einem dieser Kompressionsschemata kann die vorliegende Erfindung ausgeführt werden.
  • Bei der vorstehend angeführten Ausführungsform ist ein Beispiel erläutert worden, bei dem ausschließlich DC-Komponenten, die aus der DCT-Transformation herrühren, zu der Bildanzeigevorrichtung (dem PC) zu Anzeigezwecken übertragen werden; nicht nur die DC-Komponenten, sondern auch einige der AC-Komponenten können jedoch ebenfalls zu der Bildanzeigevorrichtung (dem PC) übertragen werden, um die Qualität des angezeigten Bildes um einen gestimmten Grad zu verbessern. Auch in diesem Fall kann die vorliegende Erfindung, ohne ihren Zweck zu unterlaufen, ausgeführt werden, da die gespeicherte und zu der Bildanzeigevorrichtung (dem PC) übertragene Datenmenge verringert wird im Vergleich zu dem Verfahren gemäß dem Stand der Technik, bei dem die gesamten komprimierten Bilddaten gespeichert und zu der Bildanzeigevorrichtung (dem PC) übertragen werden.
  • Bei der Vorstehend angeführten Ausführungsform wurde EDL-Information oder ein Nachrichtenmanuskript von dem PC zu dem Videoserver übertragen und der Videoserver, der die EDL-Information bzw. das Nachrichtenmanuskript empfängt, hat die Bilddaten auf Grundlage der EDL-Information neu geordnet und das aufbereitete Bild oder das empfangene Nachrichtenmanuskript ausgesendet. Alternativ kann die Aufbereitung durchgeführt werden durch Übertragen der EDL-Information von dem PC zu einer anderen Aufbereitungsvorrichtung, wie etwa einem VTR, unter Verwendung einer Datenübertragungsleitung, oder einer Floppydisk.
  • Bei der vorstehend angeführten Ausführungsform ist ausschließlich eine (einzige) Datenübertragungsleitung dargestellt worden; wenn zwei oder mehr Datenübertragungsleitungen vorgesehen sind, oder wenn ein Teil der Datenübertragungsleitungen als für die Datenübertragung bestimmte Leitungen verwendet wird, kann die vorliegende Erfindung auch ausgeführt werden, ohne ihren Zweck zu unterlaufen, die Datenübertragungsmenge zu verringern.
  • Bei der vorstehend angeführten Ausführungsform wurde die Zeitcodeinformation zu dem PC übertragen; anstatt den Zeitcode zum PC zu übertragen, kann ausschließlich eine Anzeige auf dem PC erzeugt werden und ausschließlich Aufbereitungspunktinformation kann von dem PC zu dem Videoserver übertragen werden, so dass die Aufbereitungsinformation im Videoserver erzeugt werden kann. Dies kann problemlos erreicht werden durch Übertragen von ausschließlich Grobbildinformation, die zumindest DC- Komponenten enthält, entlang dem Signalfluss 113 und durch Ausgeben eines PC-Befehls, der einen Aufbereitungspunkt zusammen mit dem Signalfluss 115 bezeichnet.
  • Bei der vorstehend angeführten Ausführungsform sind das erste Videomaterial 101, das zweite Videomaterial 102 und das dritte Videomaterial 103 als komprimierte Bilddaten beschrieben worden; bei dem Videomaterial muss es sich jedoch nicht notwendigerweise um komprimierte Daten handeln; es ist lediglich erforderlich, dass die Daten in komprimierter Form vorliegen, bevor sie in den PC übertragen werden.
  • Bei der vorstehend erläuterten Ausführungsform erfolgte keine Erläuterung bezüglich der Bildkompression entlang der Zeitachse; wenn die Bildkompression entlang der Zeitachse erfolgt, liegt es jedoch im Umfang der Erfindung, falls dies in Übereinstimmung mit dem Zweck der vorliegenden Erfindung stattfindet.
  • Wenn bei der vorstehend angeführten Ausführungsform eine Bildübertragung von dem Videoserver 104 zu dem PC angefordert wird, wurde ein Bilddatenanforderungsbefehl durch bzw. über den Signalfluss 114 ausgegeben; wenn die Bildinformation jedoch von vorne herein im Hauptspeicher oder HDD des PCs gespeichert wird, muss der Anforderungsbefehl für diese Bilddaten nicht unter Verwendung des Signalflusses 114 ausgegeben werden.
  • Bei der vorstehend angeführten Ausführungsform werden von den DC- und AC-Komponenten, die der Bildkompression durch die DCT- Transformation unterworfen sind, ausschließlich DC-Komponenten genutzt, um die Grobbildinformation zu erzeugen; der Videoserver wurde als Bildspeichermittel zum Speichern für Bildinformation genutzt; der Personalcomputer wurde als Aufbereitungsinformationserzeugungseinrichtung genutzt; die EDL wurde genutzt, um die Verarbeitungsaufbereitungsinformation bereit zu stellen, die verwendet wird, um Echtzeitverarbeitungsaufbereitung durchzuführen; und der Zeitcode und die Kassettennummer zur Identifizierung der Videokassette, welche die Bilddaten enthält, werden als Indexinformation verwendet. Es wird bemerkt, dass die vorliegende Erfindung jedoch nicht auf die vorstehend angeführte Ausführungsform beschränkt ist; vielmehr ist sie zahlreichen Modifikationen in Übereinstimmung mit dem Ziel der vorliegenden Erfindung zugänglich, und diese Modifikationen sind auch vom Umfang der vorliegenden Erfindung umfasst.
  • Bei der vorstehend angeführten Ausführungsform wurde eine Übertragungsleitung in Übereinstimmung mit Ethernet (IEEE 802.2, IEEE 802.3) als Datenübertragungsleitung 106 verwendet; eine beliebige andere Art einer Übertragungsleitung, die digitale Daten zu führen vermag, kann jedoch verwendet werden, wie etwa eine solche, die unter folgendem verwendet wird: ATM, 100BASE-T, 100VG-AnyLAN, FDDI, TPFDDI, IEEE 1394 u. dgl. Anstelle der Verwendung einer Netzübertragungsleitung ist es auch möglich, einen PCI-(Peripheral Component Interconnect)Bus oder eine andere Busart zu verwenden, die als interner Bus eines Personalcomputers verwendet wird.
  • Bei der vorstehend angeführten Ausführungsform wurde außerdem ein PCI-Bus als Datenübertragungsleitung 1507 verwendet; eine beliebige andere Art eines Busses kann jedoch verwendet werden, der digitale Daten zu führen vermag, wie beispielsweise ein SCSI-(Small Computer System Interface)Bus. Anstelle eines Busses kann eine Netzübertragungsleitung verwendet werden, wie etwa eine solche, die verwendet wird in ATM, 100BASE-T, 100VG- AnyLAN, FDDI, TPFDDI, IEEE 1394 u. dgl. Es ist auch möglich, eine Übertragungsleitung zu verwenden, wie etwa eine solche, die in einem Großbereich B-ISDN genutzt wird.
  • Bei der vorstehend angeführten Ausführungsform wurden Bilddaten, die komprimiert wurden durch den DCT-Prozess, durch Quantisieren und Codieren mit variabler Länge als Beispiel für die Bilddaten verwendet, die übertragen und gespeichert (aufgezeichnet) werden; falls die Bilddaten einer anderen Verarbeitungsart unterworfen werden, wie etwa einer Verarbeitung zum Zusammensetzen der Bilddaten in Paketen für die Telekommunikation oder zum Umordnen zur Aufzeichnung auf einem VTR oder einem Verarbeiten zum Aneinandersetzen der Bilddaten in VTR- Synchronisationsblöcke, liegt auch diese Bildverarbeitung im Umfang der vorliegenden Erfindung, so lange sie in Übereinstimmung mit dem Ziel der vorliegenden Erfindung erfolgt.
  • Bei der vorstehend angeführten Ausführungsform wurden die mehreren Segmente der Grobbildinformation angeordnet, bevor die mehreren Segmente der Feinbildinformation zur Übertragung und Aufzeichnung angeordnet wurden. Da der Kern der Erfindung darin besteht, die Grobbildinformation und die Feinbildinformation durch Zusammenstellen bzw. Gruppieren der jeweiligen Segmente zu verarbeiten, können die mehreren Segmente der Grobbildinformation auch angeordnet werden, nachdem die mehreren Segmente der Feinbildinformation angeordnet wurden zur Übertragung und Aufzeichnung.
  • Bei der vorstehend angeführten Ausführungsform wurden die Grobbildinformationssegmente und die Feinbildinformationssegmente jeweils gemeinsam auf einer Vollbild-Basis gruppiert. Da der Kern der Erfindung darin besteht, die Grobbildinformation und die Feinbildinformation durch Gruppieren der jeweiligen Segmente bzw. Zusammenstellen derselben zu verarbeiten, können sie jedoch auch auf einer Basis zusammengestellt werden, die länger ist als ein einziges Vollbild oder kürzer als ein einziges Vollbild, anstatt auf Vollbild-Vollbild-Basis.
  • Bei der vorstehend angeführten Ausführungsform wurde der Videoserver als Vorrichtung zum Speichern (Aufzeichnen) von Videomaterial und der PC als Vorrichtung zum Durchführen des Aufbereitungsvorgangs getrennt bereit gestellt und sie waren miteinander durch eine Datenübertragungsleitung verbunden; die Erfindung ist jedoch nicht auf diese Konfiguration beschränkt. Beispielsweise ist auch eine Konfiguration möglich, demnach der PC mit einer Harddisk zur Speicherung (Aufzeichnung) von Videomaterial versehen ist. Dies bedeutet im Wesentlichen, dass die Datenübertragungsleitung, die in der vorliegenden Erfindung verwendet wird, nicht beschränkt ist auf einen internen Computerbus, wie etwa einen PCI-Bus oder eine Netzübertragungsleitung, wie etwa Ethernet oder eine andere Netzarchitektur, und dass eine beliebige Art einer Schnittstelle verwendet werden kann, um die verschiedenen Vorrichtungen miteinander zu verbinden, ohne vom Umfang der vorliegenden Erfindung abzuweichen.
  • Obwohl die vorliegende Erfindung im Hinblick auf aktuell bevorzugte Ausführungsformen erläutert wurde, versteht es sich, dass diese Offenbarung nicht als beschränkend anzusehen ist. Zahlreiche Abwandlungen und Modifikationen erschließen sich dem Fachmann, an den sich die vorliegende Erfindung richtet, nach einem Studium der vorstehend angeführten Offenbarung. Es ist deshalb beabsichtigt, dass die anliegenden Ansprüche als sämtliche Abwandlungen und Modifikationen abdeckend zu interpretieren sind, die in dem wahren Geist und Umfang der Erfindung fallen.

Claims (1)

1. Bildaufbereitungsvorrichtung, aufweisend:
Eine Einrichtung zum Komprimieren von Bilddaten eines Vollbildes durch DCT-Transformation;
eine erste Speichereinrichtung zum Speichern der komprimierten Bilddaten des Vollbildes;
eine zweite Speichereinrichtung 1503 zum Speichern von Grobbilddaten;
eine Abteilungseinrichtung 1501 zum Abteilen der Grobbilddaten von den komprimierten Bilddaten;
eine Steuereinrichtung 1504 zum Steuern der ersten und zweiten Speichereinrichtung 1503 zum Aufbereiten von Daten von bzw. aus der zweiten Speichereinrichtung 1503 und zum Anzeigen der Bilddaten des Vollbildes; und
eine Zusatzinformationserzeugungseinrichtung 105 zur Erzeugung zusätzlicher Information in Bezug auf die Bilddaten des Vollbildes und zum Wiedergeben und Anzeigen der Grobbilddaten;
wobei die Grobbilddaten als die DC-Komponente oder die DC- Komponente und niederfrequenten AC-Komponenten von den komprimierten Bilddaten gewählt werden;
Feinbilddaten durch die restlichen AC-Komponenten der komprimierten Bilddaten festgelegt sind;
eine Bilddatenübertragungseinrichtung 1501 vorgesehen ist zum Anordnen der Grob- und Feinbilddaten in mehrere, zusammen hängende Segmente von Grobbilddaten und in vorausgehende oder folgende mehrere aneinander hängende Segmente der Feinbilddaten, wobei die aneinander hängenden Segmente der Grobbilddaten in der zweiten Speichereinrichtung 1503 gespeichert werden, und wobei die Feinbilddaten in einer Feinbilddatenspeichereinrichtung 1502 gespeichert werden; und
eine Einrichtung 1504 vorgesehen ist zum sequenziellen Auslesen der mehreren, zusammen hängenden Segmente der Grobbilddaten, die in der zweiten Speichereinrichtung 1503 gespeichert sind zum Aufbereiten des Vollbildes.
DE69615947T 1995-07-14 1996-07-11 Bildverarbeitungsgerät Expired - Fee Related DE69615947T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP17851595 1995-07-14
JP8042561A JPH0991463A (ja) 1995-07-14 1996-02-29 画像編集装置

Publications (2)

Publication Number Publication Date
DE69615947D1 DE69615947D1 (de) 2001-11-22
DE69615947T2 true DE69615947T2 (de) 2002-04-04

Family

ID=26382272

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69615947T Expired - Fee Related DE69615947T2 (de) 1995-07-14 1996-07-11 Bildverarbeitungsgerät
DE69635528T Expired - Fee Related DE69635528T2 (de) 1995-07-14 1996-07-11 Bildverarbeitungsgerät

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69635528T Expired - Fee Related DE69635528T2 (de) 1995-07-14 1996-07-11 Bildverarbeitungsgerät

Country Status (4)

Country Link
US (1) US6005678A (de)
EP (2) EP0753852B1 (de)
JP (1) JPH0991463A (de)
DE (2) DE69615947T2 (de)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3377677B2 (ja) * 1996-05-30 2003-02-17 日本電信電話株式会社 映像編集装置
WO1998037558A2 (en) 1997-02-21 1998-08-27 Koninklijke Philips Electronics N.V. Method of and arrangement for recording and reproducing video images
JP3919033B2 (ja) * 1997-04-06 2007-05-23 ソニー株式会社 映像音声処理装置
JP3741299B2 (ja) * 1997-04-06 2006-02-01 ソニー株式会社 映像信号処理装置及び映像信号処理方法
JP3634556B2 (ja) * 1997-05-12 2005-03-30 キヤノン株式会社 画像処理方法及びそのシステム
EP0889636B1 (de) * 1997-06-30 2005-08-24 Fuji Photo Film Co., Ltd. System und Verfahren zur Bildübertragung
US6166731A (en) * 1997-09-24 2000-12-26 Sony Corporation Editing digitized audio/video data across a network
JP3882182B2 (ja) * 1997-11-27 2007-02-14 富士フイルムホールディングス株式会社 画像表示装置及びカメラ並びに画像通信システム
US6763523B1 (en) 1998-04-03 2004-07-13 Avid Technology, Inc. Intelligent transfer of multimedia data files from an editing system to a playback device
KR100331322B1 (ko) 1998-06-22 2002-08-27 삼성전자 주식회사 제조업체간의 특수기능을 지원하기 위한 부가정보를 저장하는 기록매체 및 기록 및/또는 편집장치와 그방법
US6766357B1 (en) 1999-04-15 2004-07-20 Avid Technology, Inc. Apparatus and method for efficient transfer of multimedia data for playback
US7012600B2 (en) * 1999-04-30 2006-03-14 E Ink Corporation Methods for driving bistable electro-optic displays, and apparatus for use therein
WO2000069168A1 (en) * 1999-05-07 2000-11-16 Koninklijke Philips Electronics N.V. Gathering and editing information with a camera
JP2001238193A (ja) * 2000-02-18 2001-08-31 Sony Corp 映像供給装置及び映像供給方法
JP4660879B2 (ja) * 2000-04-27 2011-03-30 ソニー株式会社 情報提供装置および方法、並びにプログラム
KR100386036B1 (ko) * 2000-06-27 2003-06-02 (주)버추얼미디어 티씨피/아이피 네트워크 상에서의 디지털 비디오편집시스템 및 그 제어방법
US6944226B1 (en) 2000-10-03 2005-09-13 Matsushita Electric Corporation Of America System and associated method for transcoding discrete cosine transform coded signals
JP2002351878A (ja) * 2001-05-18 2002-12-06 Internatl Business Mach Corp <Ibm> デジタルコンテンツ再生装置、データ取得システム、デジタルコンテンツ再生方法、メタデータ管理方法、電子透かし埋め込み方法、プログラム及び記録媒体
US7424509B2 (en) * 2001-06-04 2008-09-09 Hewlett-Packard Development Company, L.P. System and method for printing from a web application
US6934742B2 (en) * 2002-03-07 2005-08-23 International Business Machines Corporation Efficiently handling client requests in a server farm
JP2003319184A (ja) * 2002-04-18 2003-11-07 Toshiba Tec Corp 画像処理装置および画像処理方法および画像表示方法および画像記憶方法
US20050157948A1 (en) * 2002-04-25 2005-07-21 Thomson Licensing S.A. Video resolution control for a web browser and video display
US7239754B2 (en) * 2002-07-16 2007-07-03 Hiroshi Akimoto Method, apparatus and system for compressing still images in multipurpose compression systems
JP4173709B2 (ja) * 2002-09-26 2008-10-29 富士フイルム株式会社 データ管理方法およびデータ管理装置並びにプログラム
US7747700B2 (en) * 2002-11-22 2010-06-29 Sony Corporation System and method for referencing AV data accumulated in AV server
JP4218590B2 (ja) * 2004-05-26 2009-02-04 ソニー株式会社 画像処理システム、情報処理装置および方法、画像処理装置および方法、記録媒体、並びにプログラム
JP2006033507A (ja) 2004-07-16 2006-02-02 Sony Corp 遠隔編集システム、主編集装置、遠隔編集装置、編集方法、編集プログラム、及び記憶媒体
JP4545550B2 (ja) * 2004-10-29 2010-09-15 株式会社リコー 印刷制御装置,プログラム,および記録媒体
US8141111B2 (en) 2005-05-23 2012-03-20 Open Text S.A. Movie advertising playback techniques
US9648281B2 (en) 2005-05-23 2017-05-09 Open Text Sa Ulc System and method for movie segment bookmarking and sharing
US8724969B2 (en) * 2005-05-23 2014-05-13 Open Text S.A. Method, system and computer program product for editing movies in distributed scalable media environment
US8145528B2 (en) 2005-05-23 2012-03-27 Open Text S.A. Movie advertising placement optimization based on behavior and content analysis
JP2007060240A (ja) * 2005-08-24 2007-03-08 Hitachi Kokusai Electric Inc 放送番組送出装置の事前プレビュー方法
JP4718944B2 (ja) * 2005-09-16 2011-07-06 株式会社東芝 ビデオサーバ装置およびその再生方法
JP2007150786A (ja) * 2005-11-29 2007-06-14 Sony Corp 送受信システム、情報処理装置および情報処理方法、並びにプログラム
JP4311404B2 (ja) * 2006-01-23 2009-08-12 ソニー株式会社 光ディスク装置及びカメラシステム
JP5237174B2 (ja) * 2009-04-09 2013-07-17 Kddi株式会社 携帯端末によって原コンテンツを編集するコンテンツ編集方法、コンテンツサーバ、システム及びプログラム
US8786665B2 (en) * 2010-04-27 2014-07-22 Lifesize Communications, Inc. Streaming a videoconference from a server including boundary information for client layout adjustment
US11495102B2 (en) * 2014-08-04 2022-11-08 LiveView Technologies, LLC Devices, systems, and methods for remote video retrieval
US12014612B2 (en) 2014-08-04 2024-06-18 LiveView Technologies, Inc. Event detection, event notification, data retrieval, and associated devices, systems, and methods
JP2019105933A (ja) * 2017-12-11 2019-06-27 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4513317A (en) * 1982-09-28 1985-04-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Retinally stabilized differential resolution television display
US4750211A (en) * 1983-07-29 1988-06-07 Polaroid Corporation Method and apparatus for image processing with field portions
JPH0652472B2 (ja) * 1984-07-23 1994-07-06 インターナショナル・ビジネス・マシーンズ・コーポレーション イメージ処理方法
JP2588704B2 (ja) * 1986-12-23 1997-03-12 日本ビクター株式会社 磁気記録再生装置
JPH02195482A (ja) * 1989-01-24 1990-08-02 Toshiba Corp イメージ編集方式
US5164831A (en) * 1990-03-15 1992-11-17 Eastman Kodak Company Electronic still camera providing multi-format storage of full and reduced resolution images
US5237648A (en) * 1990-06-08 1993-08-17 Apple Computer, Inc. Apparatus and method for editing a video recording by selecting and displaying video clips
JPH0468772A (ja) * 1990-07-04 1992-03-04 Matsushita Electric Ind Co Ltd 画像データ復号装置
GB9022761D0 (en) * 1990-10-19 1990-12-05 Eidos Plc Improvements in or relating to video editing systems
JPH04196987A (ja) * 1990-11-28 1992-07-16 Matsushita Electric Ind Co Ltd 動画アクセス装置及び動画リンク編集装置
JPH04207878A (ja) * 1990-11-30 1992-07-29 Toshiba Corp 動画像管理装置
JPH04301986A (ja) * 1991-03-28 1992-10-26 Olympus Optical Co Ltd 画像記録/再生装置およびその方法
JPH0583696A (ja) * 1991-06-07 1993-04-02 Sony Corp 画像符号化装置
JPH0530463A (ja) * 1991-07-19 1993-02-05 Toshiba Corp 動画像管理装置
JPH0530464A (ja) * 1991-07-19 1993-02-05 Toshiba Corp 動画像管理装置
DE69222102T2 (de) * 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
WO1994022108A1 (en) * 1993-03-23 1994-09-29 Zoran Corporation Rapid thumbnail image reconstruction of dct compressed image data
EP0702832B1 (de) * 1993-06-10 1998-03-04 Lightworks Editing Systems Ltd Videoschnittsystem
JPH07154740A (ja) * 1993-11-30 1995-06-16 Sony Corp 記録媒体、記録方法、記録装置、及び編集方法
US5675752A (en) * 1994-09-15 1997-10-07 Sony Corporation Interactive applications generator for an interactive presentation environment

Also Published As

Publication number Publication date
EP1087397A3 (de) 2001-04-18
DE69635528T2 (de) 2006-08-17
EP1087397B1 (de) 2005-11-30
EP0753852A1 (de) 1997-01-15
EP1087397A2 (de) 2001-03-28
EP0753852B1 (de) 2001-10-17
JPH0991463A (ja) 1997-04-04
DE69615947D1 (de) 2001-11-22
US6005678A (en) 1999-12-21
DE69635528D1 (de) 2006-01-05

Similar Documents

Publication Publication Date Title
DE69615947T2 (de) Bildverarbeitungsgerät
DE69408838T2 (de) Videoschnittsystem
DE69900639T2 (de) Vorschau von hdtv schnitt und videoeffekten mit sdtv geräten
DE60211978T2 (de) Laufbildsystem mit bildinterpolation und variabler bildfrequenz
DE69704942T2 (de) Multimediasystem mit verbesserten datenverwaltungsmechanismen
DE69418580T2 (de) Fernanzeige von einem Bild durch Übertragung von komprimierten Videorahmen, die seinen Hintergrund und seinen überlagerten Vordergrund darstellen
DE60016032T2 (de) Videoschnittarbeitsflussverfahren und -system
DE69119847T2 (de) Elektronische standbildkamera mit mehrformatspeicherung von bildern mit voller und beschränkter auflösung
DE69723502T2 (de) Abbildung von digital kodierten Bildern aus einem Videoauszug
DE69835188T2 (de) Bildverarbeitungsvorrichtung und -verfahren und Aufzeichnungsmedium dafür
DE69912857T2 (de) Aufzeichnungsgerät, Aufzeichnungsverfahren und komputerlesbares Speichermedium
DE69526470T2 (de) Verfahren und Vorrichtung für die effiziente Adressierung des DRAMs eines Videodekompressionsprozessors
DE69029531T2 (de) Verfahren und Vorrichtung zum Bildeditieren
DE69825851T2 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE69733527T2 (de) Bildanzeigeeinheit, Bildanzeigesystem und Wiederauffindungssystem für bewegte Bilder
DE69122330T2 (de) Verfahren zum Aufzeichnen eines digitalen Videosignals
DE69621901T2 (de) Einrichtung zur Vorverarbeitung eines Stromes digitaler Videodaten
DE69330157T2 (de) Vorrichtung und Verfahren für die Aufzeichnung von Videosignalen
DE69320867T2 (de) Bildkommunikationsgerät
DE69836890T2 (de) System zur Kodierung und Aufzeichnung einer Vielzahl von Bildern
DE2746285A1 (de) Bildverarbeitungssystem fuer das fernsehen
DD260378A5 (de) Bildwiedergabeanordnung
DE69320689T2 (de) Vorrichtung und Verfahren zur Verarbeitung von Bilddaten
DE19825303A1 (de) System für virtuelle Szenen mit mehreren Kameras unter Verwendung von Standbildspeicherrahmenpuffern für jede Kamera
DE69319072T2 (de) System für die Zusammenstellung von Videodaten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee