DE69912084T2 - Verfahren zur Erkennung von Szenenüberblendungen zur Indexierung von Videosequenzen - Google Patents

Verfahren zur Erkennung von Szenenüberblendungen zur Indexierung von Videosequenzen Download PDF

Info

Publication number
DE69912084T2
DE69912084T2 DE69912084T DE69912084T DE69912084T2 DE 69912084 T2 DE69912084 T2 DE 69912084T2 DE 69912084 T DE69912084 T DE 69912084T DE 69912084 T DE69912084 T DE 69912084T DE 69912084 T2 DE69912084 T2 DE 69912084T2
Authority
DE
Germany
Prior art keywords
frames
sign
components
identifying
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69912084T
Other languages
English (en)
Other versions
DE69912084D1 (de
Inventor
Huifang Sun
Hiroshi Ito
Tommy C. Poon
Ajay Divakaran
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE69912084D1 publication Critical patent/DE69912084D1/de
Application granted granted Critical
Publication of DE69912084T2 publication Critical patent/DE69912084T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Circuits (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • GEBIET DER ERFINDUNG
  • Diese Erfindung bezieht sich auf Verfahren zur Erfassung von Szenenblendvorgängen zum Indexieren von Videosignalfolgen der Typen, die z. B. bei Rundfunksignalen für Fernsehen hoher Auflösung (HDTV) und anderen Videoverteilungssystemen wie sie bei Internet-Videodiensten getroffen werden, gefunden werden.
  • BESCHREIBUNG DES STANDES DER TECHNIK
  • Grundlegende Verfahren zum Verdichten der Bandbreite von digitalen Farbvideosignalen wurden von der Motion Picture Experts Group (MPEG) angewendet.
  • Die MPEG-Standards erzielen hohe Datenverdichtungsraten durch Entwickeln von Informationen für ein Vollbild des Bildes nur jeweils so häufig. Die Gesamt bild-Vollbilder oder intracodierte Bilder werden als "I-Vollbilder" bezeichnet und enthalten die gesamten Vollbildinformationen unabhängig von irgendwelchen anderen Vollbildern. B-Vollbilder und P-Vollbilder sind zwischen den I-Vollbildern codiert und speichern nur Bilddifferenzen mit Bezug auf die Bezugsanker-Vollbilder.
  • Typischerweise ist jedes Vollbild einer Videofolge in kleinere Blöcke aus Pixeldaten unterteilt, und jeder Block ist einer diskreten Kosinustransformations(DCT)-Funktion unterzogen, um die statistisch abhängigen Raumdomänen-Bildelemente (Pixel) in unabhängige Frequenzdomänen-DCT-Koeffizienten umzuwandeln.
  • Jeweilige 8 × 8-Blöcke von Pixeln werden der diskreten Kosinustransformation (DCT) unterzogen, um das codierte Signal zu erhalten. Die sich ergebenden Koeffizienten werden typischerweise der adaptiven Quantisierung unterzogen und werden dann mit Runlänge und variabler Länge codiert. Somit enthalten die Blöcke aus übertragenen Daten typischerweise weniger als eine 8 × 8-Matrix aus Codewörtern. Makroblöcke aus Intra-Vollbild-codierten Daten (I-Vollbilder) enthalten auch Informationen wie den verwendeten Pegel der Quantisierung, eine Makroblockadresse oder einen Ortsanzeiger und einen Makroblocktyp, wobei die letztgenannten Informationen als "Vorsatz"- oder "Kopf"-Informationen bezeichnet werden.
  • Die entsprechend der P- oder B-Inter-Vollbild-Codierung codierten Datenblöcke bestehen ebenfalls aus Matrizen von diskreten Kosinuskoeffizienten. In diesem Fall jedoch stellen die Koeffizienten Reste oder Differenzen zwischen einer vorhergesagten 8 × 8-Pixelmatrix und der tatsächlichen 8 × 8-Pixelmatrix dar. Diese Koeffizienten werden ebenfalls der Quantisierung und Codierung mit Runlänge und variabler Länge unterzogen. In der Vollbildfolge werden I- und P-Vollbilder als Ankervollbilder bezeichnet. Jedes P-Vollbild ist aus dem zuletzt auftretenden Ankervollbild vorhergesagt. Jedes P-Vollbild ist von einem oder beiden der Ankervollbilder vorhergesagt, zwischen denen es sich befindet. Der vorhersagende Codiervorgang bedingt die Erzeugung von Versetzungsvektoren, die anzeigen, welcher Block eines Ankervollbildes am stärksten mit dem Block des vorhergesagten Vollbildes, das gegenwärtig codiert wird, übereinstimmt. Die Pixeldaten des übereinstimmenden Blocks in dem Ankervollbild werden auf einer Pixel-für-Pixel-Basis von dem Block des gegenwärtig codierten Vollbildes subtrahiert, um die Reste zu entwickeln. Die transformierten Reste und die Vektoren bilden die codierten Daten für die Vorhersagevollbilder. Wie bei Intra-Vollbild-codierten Vollbildern enthalten die Makroblöcke Quantisierungs-, Adressen- und Typeninformationen.
  • Die Ergebnisse sind gewöhnlich energiekonzentriert, so dass nur einige wenige der Koeffizienten in einem Block den Hauptteil der Bildinformationen enthalten. Die Koeffizienten werden in einer bekannten Weise quantisiert, um den dynamischen Bereich der Koeffizienten wirksam zu begrenzen, und die Ergebnisse werden dann mit Runlänge und variabler Länge codiert für die Abgabe zu einem Übertragungsmedium.
  • Das so genannte MPEG-4-Format wird beschrieben in "MPEG-4 Video Verification Model Version 5.0", verteilt von der Adhoc Group on MPEG-4 Video VM Editing an ihre Mitglieder unter der Bezeichnung ISO/IEC JTC1/SC29/WG11 MPEG 96/N1469, November 1996. Das MPEG-4-Videocodierformat erzeugt einen variablen Bitratenstrom bei dem Codierer von Vollbild zu Vollbild (wie es der Fall mit früheren Schemen war). Da der der variable Bitratenstrom über einen Kanal mit fester Rate übertrage wird, wird ein Kanalpuffer verwendet, um den Bitstrom zu vergleichmäßigen. Um einen Über- oder Unterlauf des Puffers zu verhindern, wird eine Ratensteuerung des Codiervorgangs angewendet.
  • Mit dem Erscheinen neuer digitaler Videodienste wie über das Internet verteiltem Video besteht eine zunehmende Notwendigkeit für Signalverarbeitungstechniken, Szenenänderungen und andere Eigenschaften in den Videofolgen zu identifizieren. Die Identifikation von Szenenänderungen, ob sie abrupt oder allmählich sind, ist nützlich für die Zwecke des Indexierens, was z. B. einen schnellen und einfachen Bildabruf und eine Szeneanalyse erleichtert.
  • In der Zukunft sollte erwartet werden, dass eine beträchtliche Menge an digitalem Videomaterial in der vorbeschriebenen Form von verdichteten oder codierten Daten vorliegt. Die Handhabung der Videofolgeinformationen in ihrer verdichteten Form, anstatt in ihrer gedehnten oder decodierten Form, erlaubt, wenn möglich, üblicherweise eine schnellere Verarbeitung aufgrund der Verringerung der Datengröße und des Vermeidens von Transformationen. Es ist vorteilhaft, Verfahren und Techniken zu entwickeln, die die direkte Behandlung verdichteter Daten ermöglichen anstatt eine Dekompression des gesamten Vollbildes vorzunehmen, bevor eine andere Verarbeitung durchgeführt wird.
  • Es ist bekannt, dass, wenn ein Block (Makroblock) eine Kantengrenze eines Objekts enthält, die Energie in diesem Block nach der Transformation, wie durch die DCT-Koeffizienten dargestellt, einen relativ großen Gleichstromkoeffizienten (obere linke Ecke) der Matrix) und zufällig verteilte Wechselstromkoeffizienten über die Matrix enthält. Ein Block ohne Kante ist andererseits üblicherweise durch einen ähnlich großen Gleichstromkoeffizienten (obere linke Ecke) und wenige (z. B. zwei) benachbarte Wechselstromkoeffizienten, die wesentlich größer als andere mit diesem Block assoziierte Koeffizienten sind, gekennzeichnet. Diese Information bezieht sich auf Bildänderungen in der räumlichen Domäne und, wenn sie mit Bilddifferenzinformationen kombiniert sind, die durch Vergleichen aufeinander folgender Vollbilder (d.h., zeitliche Differenzen) erhalten wurden, sind Faktoren zum Unterscheiden eines Videoobjekts (VO) von einem anderen verfügbar. Wenn nur die Gleichstromwerte der Makroblöcke verwendet werden, ist ein sich ergebendes Bild eine verschwommene Version des ursprünglichen Bildes, das viel von dem Inhalt des Originals zurückhält.
  • Frühere Arbeiten mit der Indexierung von verdichteten Videosignalen haben zumeist die Gleichstromkoeffizienten-Extraktion hervorgehoben. In einem Papier mit dem Titel "Rapid Scene Analysis on Compressed Video", IEEE Transactions on Circuits and Systems for Video Technology, Band 5, Nr. 6, Dezember 1995, Seiten 533– 544, beschreiben Yeo und Liu einen Weg für eine Szenenänderungserfassung in der verdichteten MPEG-2-Videodomäne und betrachten frühere Versuche bei der Erfassung von Szenenänderungen auf der Grundlage von Folgen von ganzen (unverdichteten) Bilddaten sowie verschiedene Verarbeitungstechniken mit verdichteten Videodaten von anderen. Yeo und Liu haben die Verwendung von räumlich reduzierten Versionen der ursprünglichen Bilder, so genannten Gleichstrombildern, und Gleichstromfolgen, die aus verdichteten Videodaten herausgezogen wurden, eingeführt, um Szenenanalysevorgänge zu vereinfachen. Ihr Gleichstrombild besteht aus Pixeln, die der Durchschnittswert der Pixel in einem Block des ursprünglichen Bildes sind, und die Gleichstromfolge ist die Kombination der sich ergebenden verringerten Anzahl von Pixeln des Gleichstrombildes.
  • Won et al beschreiben in einem in Proc. SPIE Conf. on Storage and Retrieval for Image and Video Databases, Januar 1998, veröffentlichten Papier ein Verfahren zum Herausziehen von Merkmalen aus verdichteten MPEG-2-Videosignalen durch Einsetzen für die Gleichstromkoeffizienten verwendeten Bits für die Lokalisierung von Kanten in den Vollbildern. Jedoch ist ihre Arbeit nur auf I-Vollbilder beschränkt. Kobla et al beschreiben ein Verfahren in denselben Proceedings, das die Gleichstrombild-Extraktion von Yeo et al anwendet, um Videopfade zu bilden, die die Videoclips charakterisieren. Feng at al (IEEE International Conference on Image Processing, Band II, Seiten 821–824, 16.–19. September 1996), durch die der Anspruch 1 die zweiteilige Form erhalten hat, verwenden die Bitzuweisung über die Makroblöcke von MPEG-2-Vollbildern, um abrupte Szenenänderungen zu erfassen, ohne Gleichstrombilder herauszuziehen. Die Technik von Feng et al ist rechenmäßig die einfachste, da sie keine bedeutende Rechnung zusätzlich zu der, die für das Parsing des verdichteten Bitstroms erforderlich ist, benötigt.
  • Gemäß einer verwandten Erfindung der gegenwärtigen Erfinder, die beschrieben ist in der europäischen Patentanmeldung EP 1021042 (Veröffentlichungsdatum 19.07.2000) dem Titel "METHODS OF SCENE CHANGE DETECTION AND FADE DETECTION FOR INDEXING OF VIDEO SEQUEN CES", und die gleichzeitig mit dieser Anmeldung eingereicht wurde, wurden rechenmäßig einfache Verfahren gefunden, die Kombination von bestimmten Aspekten des Weges von Feng et al und des Weges von Yeo et al verwenden, um eine genaue und einfache Erfassung abrupter Szenenwechsel zu erhalten. Die vorliegenden Erfinder haben auch Techniken untersucht, die von Bitzuweisungsinformationen Gebrauch machen, um Merkmale der Videofolge herauszuziehen.
  • Frühere Arbeiten von Anderen hinsichtlich der Erfassung einer allmählichen Szenenänderung haben verschiedene Techniken angewendet, wie die Berücksichtigung der Kantenwechsel-Bruchteile, einen Zwillingsvergleichsweg, eine auf Blockanpassung basierende Bewegungskompensationsschätzung, die Erfassung von Plateaus in einer verzögerten Vollbild-Differenzmetrik und ein auf einem Videoaufbereitungsmodell basierender Weg. Von diesen arbeitet nur der Weg der Erfassung von Plateaus in der verdichteten Domäne.
  • Es ist festzustellen, dass die auf der Gleichstrombild-Extraktion basierende Technik gut für I-Vollbilder ist, da die Extraktion der Gleichstromwerte aus I-Bildern relativ einfach ist. Jedoch ist für P-Vollbilder eine zusätzliche Berechnung typischerweise nicht erforderlich.
  • Wie in der gleichzeitig eingereichten Anmeldung beschrieben ist, haben die vorliegenden Erfinder, nachdem ein vermuteter Szenen/Objekt-Wechsel in einer Gruppe von aufeinander folgenden Vollbildern/Objekten durch Verwendung einer auf einer Gleichstrombild-Extraktion beruhenden Technik genau lokalisiert wurde, die Anwendung einer angemessenen, auf einer Bitzuweisung beruhenden Technik und/oder einer abgemes senen Gleichstrom-Restkoeffizienten-Verarbeitungstechnik auf P-Vollbildinformationen in der Nähe der vermuteten Änderungsinformationen bestimmt, um schnell und genau den Schnittpunkt zu lokalisieren. Dieses kombinierte Verfahren ist entweder auf MPEG-2-Folgen oder MPEG-4-Mehrobjektfolgen anwendbar.
  • Gemäß der vorliegenden Erfindung weist ein weiterhin vereinfachtes Verfahren der Verarbeitung digitaler bilddarstellender Videodaten in verdichteter Form auf: Herausziehen aus einer Folge von digitalen bilddarstellenden Videodaten in verdichteter Form, die zumindest I-Vollbilder und P-Vollbilder, die zwischen den I-Vollbildern auftreten, aufweist, der den Gleichstromkoeffizienten von P-Vollbildern zugewiesenen Bits, um allmähliche Einblend- und Ausblend-Szenenänderungen zu erfassen. Insbesondere wird das Auftreten von allmählichen Szenenänderungen erfasste durch Bestimmen der Anzahl von positiven und negativen Gleichstrom-Restkoeffizienten in jedem der abgerufenen P-Vollbilder oberhalb eines Schwellenwertes, um das Einblenden und Ausblenden zu lokalisieren.
  • Auf diese Weise können zeitliche Segmentierungsmarkierungen erzeugt werden, die mit der Eingangsvideosequenz assoziiert sind, um die besonderen Szenenänderungen durch Blendvorgänge der Videofolge zu lokalisieren und zu identifizieren.
  • Eine spezifische bevorzugte Anordnung der Einblend/Ausblend-Szenenänderungs-Erfassungsschritte wird nun im Einzelnen beschrieben. Es ist festzustellen, dass es eine erheblich Gelegenheit für die Variation von Einzelheiten dieser Schritte gibt, ohne die allgemeineren Aspekte der vorliegenden Erfindung zu verlassen. Detaillierte Verfahrensschritte sind jedoch nachstehend angezeigt, um dem Fachmann einen Hinweis auf die möglichen Variationen zu geben.
  • Erfassung von Blendvorgängen unter Verwendung von Änderungen der zum Codieren von Gleichstromkomponenten von Resten verwendeten Bits
  • Es wurde beobachtet, dass, wenn eine allmähliche Szenenänderung vorliegt, jeder Block des Bildes ein Gleichstrom-Korrekturglied enthält, da das Bild von einem vollständig schwarzen Vollbild her eingeblendet oder zu einem vollständig schwarzen Vollbild hin ausgeblendet wird. Unter Berücksichtigung hiervon wurde gefunden, dass Bitzuweisungsprofile für Gleichstromkomponenten von Restblöcken einen Hinweis für die Erfassung von Blendvorgängen liefern. Gemäß der vorliegenden Erfindung umfasst ein verfahren zur Erfassung von Blendvorgängen die folgenden Schritte.
    • 1. Für jedes P-Vollbild werden die Anzahl von Blöcken mit negativen Gleichstromkomponenten sowie die Anzahl von Blöcken mit positiven Gleichstromkomponenten gezählt. Für den MPEG-2- sowie für den MPEG-4-Fall kann dieser Schritt leicht aus dem VLC-Parsing durchgeführt werden, da jeder Nicht-Null-Gleichstromkomponente eine von null abweichende Anzahl von Bits und ein Vorzeichenbit, das anzeigt, ob die Komponente positiv oder negativ ist, zugewiesen werden. Null-Gleichstromkomponenten werden durch die Runlängen-Information angezeigt und können somit leicht gelöscht werden.
    • 2. Die Charakteristik der beiden vorstehend erhaltenen Zahlen gegenüber der Vollbildanzahl wird be stimmt.
    • 3. Es wird ein Ausblenden erklärt, wenn die Anzahl von negativen Übergängen in einer Folge von P-Vollbildern, die sich über ein gewöhnliches Blendintervall erstrecken, so wie es in der gegenwärtigen Videopraxis angewendet wird (z. B. in der Größe von angenähert einer Sekunde) stetig gleich oder größer als 60% der Gesamtzahl von Nicht-Null-Übergängen ist. Umgekehrt wird ein Einblenden erklärt, wenn die Anzahl von positiven Übergängen die vorgenannte Schwelle trifft. Es wurde beobachtet, dass ein Blendintervall angenähert fünfzehnt bis fünfundvierzig Vollbildern entspricht, und typischerweise etwa fünfundzwanzig oder dreißig Vollbildern bei den gegenwärtigen Rundfunktechniken (etwa eine Sekunde).
  • Diese Erfassungstechnik für Blendvorgänge macht sich die von dem Codierer durchgeführte Bewegungssuche zunutze. Sie misst die für das Codieren der Gleichstromdifferenz zwischen einem besonderen Makroblock und seiner engsten Übereinstimmung in dem vorhergehenden Vollbild benötigte Rate.
  • Somit können gemäß der vorliegenden Erfindung Einblend- und Ausblend-Szenenänderungen erfasst werden, obgleich in etwas zeitaufwendigerer und ungenauerer Weise als in dem Fall der gleichzeitig anhängigen Anmeldung, durch Vergleich der jeweiligen Anzahl von positiven und negativen Gleichstromkomponenten für alle P-Vollbilder, mit oder ohne zuerst I-Vollbilder in der in der gleichzeitig anhängigen Anmeldung offenbarten Weise zu untersuchen. Insbesondere werden für jedes P-Vollbild die Anzahl von Blöcken mit negativen Gleichstromkomponenten sowie die Anzahl von Blöcken mit positiven Gleichstromkomponenten gezählt. Es wird ein Ausblendvorgang erklärt, wenn die Anzahl von negativen Übergängen größer als oder gleich 60% der Gesamtzahl der Nicht-Null-Übergänge über eine Folge von Vollbildern entsprechend zumindest einem Hauptteil eines üblichen Blendintervalls ist. Umgekehrt wird ein Einblendvorgang erklärt, wenn die Anzahl von positiven Übergängen den Schwellenwert über eine ähnlich angemessene Anzahl von Vollbildern trifft. Wieder kann ein Gleitfenster verwendet werden.
  • Während die Erfindung anhand eines bevorzugten Ausführungsbeispiels beschrieben wurde, können verschiedene Modifikationen angewendet werden, ohne den Bereich der Erfindung zu verlassen, die in den folgenden Ansprüchen definiert ist.

Claims (6)

  1. Verfahren zum Verarbeiten digitaler bilddarstellender Videodaten in verdichteter Form, welches die Schritte aufweist: Herausziehen jeder Subfolge aus P-Vollbildern entsprechend einer Gruppe von Bildern aus einer Folge von digitalen bilddarstellenden Videodaten in verdichteter Form, die zumindest I-Vollbilder und zwischen den I-Vollbildern auftretende P- Vollbilder aufweist, gekennzeichnet durch Verarbeiten der Daten in verdichteter Form für jedes Vollbild in der Subfolge, um entsprechende Gleichstrom-Restkoeffizienten, die Vorzeicheninformationen enthalten, für jedes der P-Vollbilder herauszuziehen, und Bestimmen der Anzahl von positiven und negativen Gleichstrom-Restkoeffizienten in den abgerufenen P-Vollbildern, die einen Schwellenwert überschreiten, um Einblend- bzw. Ausblend-Szenenwechsel zu lokalisieren.
  2. Verfahren zum Verarbeiten digitaler bilddarstellender Videodaten in verdichteter Form nach Anspruch 1, bei dem: der Schritt des Bestimmens weist das Zählen der Anzahl von Blöcken mit positiven Gleichstromkomponenten und der Anzahl von Blöcken mit negativen Gleichstromkomponenten in jedem der P-Vollbilder auf, Bestimmen, welcher Zählwert größer ist, und Bewahren des Vorzeichens des größeren für jedes der P-Vollbilder, Identifizieren jedes P-Vollbildes, bei dem der größere Zählwert gleich der oder mehr als eine vorbestimmte Mehrheit von von null abweichenden Gleichstromkomponenten in diesem Vollbild ist, Identifizieren jeder Gruppe von Bildern, in der die Gleichstromkomponenten eines bestimmten Vorzeichens gleichmäßig diejenigen des entgegengesetzten Vorzeichens überschreiten, Bezeichnen eines Einblend-Szenenwechsels, wenn der größere Zählwert in jeder der identifizierten Gruppen von Bildern mit einem positiven Vorzeichen assoziiert ist, Bezeichnen eines Ausblend-Szenenwechsels, wenn der größere Zählwert in jeder der identifizierten Gruppe von Bildern mit einem negativen Vorzeichen assoziiert ist.
  3. Verfahren zum Verarbeiten digitaler bilddarstellender Videodaten in verdichteter Form nach Anspruch 2, bei dem: der Schritt des Identifizierens jedes P-Vollbildes weist weiterhin das Identifizieren jedes P-Vollbildes auf, bei dem der größere Zählwert gleich oder mehr als 60 Prozent der von null abweichenden Gleichstromkomponenten in diesem Vollbild ist.
  4. Verfahren nach Anspruch 2, bei dem: der Schritt des Identifizierens jeder Gruppe von Bildern weist das Identifizieren jeder derartigen Gruppe von Bildern auf, bei der die Gleichstromkomponenten eines Vorzeichens diejenigen des entgegengesetzten Vorzeichens in allen P-Vollbildern entsprechend einem Zeitintervall, das im Wesentlichen gleich einer Abschwächungsfolge ist, überschreiten.
  5. Verfahren nach Anspruch 3, bei dem: der Schritt des Identifizierens jeder Gruppe von Bildern weist das Identifizieren jeder derartigen Gruppe von Bildern auf, bei denen die Gleichstromkomponenten eines Vorzeichens diejenigen des entgegengesetzten Vorzeichens in allen P-Vollbildern während eines Zeitintervalls in der Größenordnung von einer Sekunde überschreiten.
  6. Verfahren nach Anspruch 1, bei dem: der Schritt des Bestimmens der Anzahl von positiven und negativen Gleichstrom-Restkoeffizienten in den abgerufenen P-Vollbildern, die einen Schwellenwert überschreiten, weist das Identifizieren jeder Gruppe von Bildern, in denen die Gleichstromkomponenten eines Vorzeichens die Anzahl von Gleichstromkomponenten des entgegengesetzten Vorzeichens um zumindest einen vorbestimmten Wert überschreiten, auf.
DE69912084T 1999-01-14 1999-11-03 Verfahren zur Erkennung von Szenenüberblendungen zur Indexierung von Videosequenzen Expired - Lifetime DE69912084T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/231,699 US6327390B1 (en) 1999-01-14 1999-01-14 Methods of scene fade detection for indexing of video sequences
US231699 1999-01-14

Publications (2)

Publication Number Publication Date
DE69912084D1 DE69912084D1 (de) 2003-11-20
DE69912084T2 true DE69912084T2 (de) 2004-07-22

Family

ID=22870312

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69912084T Expired - Lifetime DE69912084T2 (de) 1999-01-14 1999-11-03 Verfahren zur Erkennung von Szenenüberblendungen zur Indexierung von Videosequenzen

Country Status (6)

Country Link
US (1) US6327390B1 (de)
EP (1) EP1021041B1 (de)
JP (1) JP3571974B2 (de)
AT (1) ATE252305T1 (de)
DE (1) DE69912084T2 (de)
HK (1) HK1029699A1 (de)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6735253B1 (en) 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
US7143434B1 (en) 1998-11-06 2006-11-28 Seungyup Paek Video description system and method
US6633673B1 (en) * 1999-06-17 2003-10-14 Hewlett-Packard Development Company, L.P. Fast fade operation on MPEG video or other compressed data
KR100634671B1 (ko) * 1999-08-13 2006-10-13 주식회사 케이티 고정밀도의 실시간 점진적 장면경계 검출기 및 그 방법
US6539055B1 (en) * 1999-12-03 2003-03-25 Intel Corporation Scene change detector for video data
US7110454B1 (en) * 1999-12-21 2006-09-19 Siemens Corporate Research, Inc. Integrated method for scene change detection
US7042525B1 (en) * 2000-07-06 2006-05-09 Matsushita Electric Industrial Co., Ltd. Video indexing and image retrieval system
US6990146B2 (en) * 2001-11-16 2006-01-24 Koninklijke Philips Electronics N.V. Method and system for detecting intra-coded pictures and for extracting intra DCT precision and macroblock-level coding parameters from uncompressed digital video
US7339992B2 (en) 2001-12-06 2008-03-04 The Trustees Of Columbia University In The City Of New York System and method for extracting text captions from video and generating video summaries
KR100468967B1 (ko) * 2001-12-28 2005-01-29 엘지전자 주식회사 썸네일 영상 생성장치 및 방법
FR2834852B1 (fr) * 2002-01-16 2004-06-18 Canon Kk Procede et dispositif de segmentation temporelle d'une sequence video
JP4082664B2 (ja) * 2002-09-20 2008-04-30 Kddi株式会社 映像検索装置
US7424160B1 (en) * 2003-04-28 2008-09-09 The Directv Group, Inc. Methods and apparatus for monitoring compressed bitstreams
WO2005088980A1 (en) * 2004-03-01 2005-09-22 Koninklijke Philips Electronics N.V. Video encoding method and apparatus
EP1735999A4 (de) 2004-03-29 2012-06-20 Nielsen Media Res Inc Verfahren und vorrichtungen zum erkennen eines leeren einzelbildes in einem digitalen video-ausstrahlungssignal
CN101080924A (zh) * 2004-12-27 2007-11-28 松下电器产业株式会社 数据处理装置
WO2006096612A2 (en) 2005-03-04 2006-09-14 The Trustees Of Columbia University In The City Of New York System and method for motion estimation and mode decision for low-complexity h.264 decoder
JP4764136B2 (ja) * 2005-10-31 2011-08-31 富士通セミコンダクター株式会社 動画像符号化装置、及びフェードシーン検出装置
EP1914994A1 (de) * 2006-10-17 2008-04-23 Mitsubishi Electric Information Technology Centre Europe B.V. Erfassung von schrittweisen Übergängen in Videosequenzen
DE102007028175A1 (de) 2007-06-20 2009-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Automatisiertes Verfahren zur zeitlichen Segmentierung eines Videos in Szenen unter Berücksichtigung verschiedener Typen von Übergängen zwischen Bildfolgen
WO2009126785A2 (en) 2008-04-10 2009-10-15 The Trustees Of Columbia University In The City Of New York Systems and methods for image archaeology
WO2009155281A1 (en) 2008-06-17 2009-12-23 The Trustees Of Columbia University In The City Of New York System and method for dynamically and interactively searching media data
US8671069B2 (en) 2008-12-22 2014-03-11 The Trustees Of Columbia University, In The City Of New York Rapid image annotation via brain state decoding and visual pattern mining
US8925024B2 (en) 2009-12-31 2014-12-30 The Nielsen Company (Us), Llc Methods and apparatus to detect commercial advertisements associated with media presentations
CN104125477B (zh) 2013-04-27 2017-08-18 华为技术有限公司 一种视频帧淡入/淡出检测方法及装置
US9848222B2 (en) 2015-07-15 2017-12-19 The Nielsen Company (Us), Llc Methods and apparatus to detect spillover
US11093788B2 (en) * 2018-02-08 2021-08-17 Intel Corporation Scene change detection

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05308630A (ja) * 1992-04-28 1993-11-19 Victor Co Of Japan Ltd 動きベクトル検出方法
JP2518503B2 (ja) * 1993-03-08 1996-07-24 日本電気株式会社 画面切り替え検出方法
US5614945A (en) * 1993-10-19 1997-03-25 Canon Kabushiki Kaisha Image processing system modifying image shake correction based on superimposed images
DE69527457T2 (de) 1994-03-31 2003-01-23 Siemens Corp Res Inc Feststellung von Szenenwechseln in kodierten Videosequenzen
US5485611A (en) * 1994-12-30 1996-01-16 Intel Corporation Video database indexing and method of presenting video database index to a user
US6023520A (en) * 1995-07-06 2000-02-08 Hitach, Ltd. Method and apparatus for detecting and displaying a representative image of a shot of short duration in a moving image
US5911008A (en) * 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
JPH09322174A (ja) 1996-05-30 1997-12-12 Hitachi Ltd 動画データの再生方法

Also Published As

Publication number Publication date
DE69912084D1 (de) 2003-11-20
EP1021041A3 (de) 2000-10-25
JP2000217121A (ja) 2000-08-04
EP1021041A2 (de) 2000-07-19
HK1029699A1 (en) 2001-04-06
JP3571974B2 (ja) 2004-09-29
ATE252305T1 (de) 2003-11-15
US6327390B1 (en) 2001-12-04
EP1021041B1 (de) 2003-10-15

Similar Documents

Publication Publication Date Title
DE69912084T2 (de) Verfahren zur Erkennung von Szenenüberblendungen zur Indexierung von Videosequenzen
DE69911569T2 (de) Verfahren zur Szenenänderungs- und Überblendungensdetektion für Videosequenzindexierung
DE69937462T2 (de) Effiziente macroblockheaderkodierung zur videokompression
DE69839100T2 (de) Verbesserte Videokodierung unter Verwendung von adaptiven Blockparametern für kodierte/unkodierte Blöcke
US6618507B1 (en) Methods of feature extraction of video sequences
DE602004008763T2 (de) Videotranskodierung
DE60215241T2 (de) Verfahren und Vorrichtung zur Reduzierung von Störungen in dekodierten Bildern mit Nachfilterung
DE69817460T2 (de) Bildsequenzdekodierungsverfahren
US7970051B2 (en) Method and apparatus for encoding and/or decoding moving pictures
DE60309375T2 (de) Parametrisierung für verlauf-kompensation
US8179961B2 (en) Method and apparatus for adapting a default encoding of a digital video signal during a scene change period
DE60302456T2 (de) System und verfahren zur verbesserung der schärfe für codierte digitale videosignale
DE19734882A1 (de) Verfahren zum Kodieren von Bewegungsvektoren bei Filmaufnahmen
DE602005005321T2 (de) Verfahren und vorrichtung zur codierung einer bildsequenz unter verwendung von vorhergesagten und nicht vorhergesagten bildern, die jeweils mehrere makroblöcke enthalten
MX2011000692A (es) Sistemas y metodos para compresion de video altamente eficiente al usar retencion selectiva de detalle visual relevante.
EP1743488A1 (de) Monochrom-einzelbilddetektionsverfahren und entsprechende einrichtung
KR100608036B1 (ko) 영상 데이터 세그먼테이션 방법 및 장치
DE19753976A1 (de) Dekoder mit einer adaptiven Funktion zur Vermeidung von Blockeffekten
KR100683060B1 (ko) 영상 프레임의 블록화 현상 제거 장치 및 그 방법
DE69824983T2 (de) Verfahren und Gerät zur Codierung durch Luminanzschätzung
AT509759B1 (de) Verfahren zum verarbeiten von sport-videosequenzen
EP0831650A2 (de) Verfahren und Vorrichtung zur Kodierung von digitalen Bildsignalen mit Szenenwechseldetektion
Sowmyayani et al. Frame differencing-based segmentation for low bit rate video codec using H. 264
Coudoux et al. Reduction of color bleeding in DCT block-coded video
CN117544770A (zh) 图片组长度确定方法、装置、计算机设备及可读介质

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)