DE69432544T2 - Verfahren und Gerät zum Wiederauffinden von dynamischen Bildern und zur Verwaltung von Bildern - Google Patents
Verfahren und Gerät zum Wiederauffinden von dynamischen Bildern und zur Verwaltung von BildernInfo
- Publication number
- DE69432544T2 DE69432544T2 DE69432544T DE69432544T DE69432544T2 DE 69432544 T2 DE69432544 T2 DE 69432544T2 DE 69432544 T DE69432544 T DE 69432544T DE 69432544 T DE69432544 T DE 69432544T DE 69432544 T2 DE69432544 T2 DE 69432544T2
- Authority
- DE
- Germany
- Prior art keywords
- data
- image
- dynamic
- characteristic
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000000605 extraction Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 239000003086 colorant Substances 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/732—Query formulation
- G06F16/7328—Query by example, e.g. a complete video frame or video sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/785—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/142—Detection of scene cut or scene change
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/179—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/87—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/147—Scene change detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99941—Database schema or data structure
- Y10S707/99943—Generating database or data structure, e.g. via user interface
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99941—Database schema or data structure
- Y10S707/99944—Object-oriented database structure
- Y10S707/99945—Object-oriented database structure processing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99941—Database schema or data structure
- Y10S707/99948—Application of database or data structure, e.g. distributed, multimedia, or image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
Description
- Die vorliegende Erfindung betrifft ein Verfahren und ein Gerät zum Wiederauffinden von dynamischen oder bewegten Bildern, sowie ein Verfahren und ein Gerät zur Verwaltung von Bildern, wobei diese in der Lage sind, gewünschte dynamische oder bewegte Bilder aus gespeicherten Bildern innerhalb einer kurzen Zeitspanne effizient wiederaufzufinden.
- Als ein Verfahren zum Wiederauffinden von gewünschten dynamischen Bildern aus den im Voraus gespeicherten dynamischen Bildern existiert ein Verfahren zum Wiederauffinden der gewünschten dynamischen Bilder gemäß Klassifizierungscodes und zugehörigen Informationen, wie z. B. Positionsdaten für jeden Titel der dynamischen Bilder von allen gespeicherten dynamischen Bildern, und ein Verfahren zum visuellen Wiederauffinden der Bilder durch einen Benutzer, wie z. B. Bilder aus Filmen, während dieser die Bilder gerade mit einer hohen Geschwindigkeit transportiert, oder zum direkten Wiederauffinden der Bilder in einem bestimmten Intervall während der Beobachtung einer Rahmenfolge.
- Als ein Verfahren zum Wiederauffinden der dynamischen Bilder unter Verwendung der wiederaufzufindenden Bilder wurde ein Rahmen von wiederaufzufindenden Bildern eingegeben, und ein dem eingegebenen Rahmenbild entsprechender Rahmen wurde zum eigentlichen Wiederauffinden aus allen Rahmen ausgewählt.
- Bei einem Verfahren zum Wiederauffinden der dynamischen Bilder gemäß dem vorstehend beschriebenen Klassifizierungscode, wie z. B. die die Lage betreffende Daten, sollte der Benutzer jedoch die Positionsdaten in Zusammenhang mit jedem Titel von dem dynamischen Bild speichern; auch wenn der Benutzer zum Beispiel die Daten an einer Position auf einem Videoband wissen wollte, auf dem der gewünschte Titel gespeichert ist, könnte das dynamische Bild nicht wiederaufgefunden werden, wenn es außer dem Videoband keine Anhaltspunkte gäbe.
- Bei dem Verfahren zum visuellen Wiederauffinden der dynamischen Bilder mittels schnellem Transportieren gibt es das Problem, dass die zum Wiederauffinden benötigte Zeit bei einer großen Zahl von gespeicherten dynamischen Bildern länger ist, womit das Verfahren unzweckmäßig wird, obwohl dieses Verfahren bei einer geringen Zahl von gespeicherten dynamischen Bildern ausgeführt werden kann.
- Bei dem Verfahren zum Wiederauffinden gespeicherter Bilder mittels Eingeben von gewünschten Bildern ist es notwendig zu bestimmen, ob ein eingegebenes Rahmenbild mit einem gespeicherten Rahmenbild identisch ist.
- Obwohl Musterabgleich als ein praktisches Verfahren zum Wiederauffinden verfügbar ist, gibt es damit ein Problem, dass Musterabgleich zum Wiederauffinden viel Zeit benötigt.
- Bei dem anderen Verfahren sind zum Bestimmen, ob das Bild besondere Informationen (zum Beispiel Eigenschaft A) enthält, ein Histogramm von Bildern und das Übereinstimmen des Ausmaßes bzw. Betrags von Charakteristika (Eigenschaften) für das Wiederauffinden verfügbar. Es ist jedoch notwendig, zum Zeitpunkt der Speicherung von Bildern das Ausmaß bzw. den Betrag von Charakteristika (Eigenschaften) für jeden Rahmen als Ganzes im Voraus zu berechnen, und derartige Berechnungen benötigen viel Zeit.
- Im Fall des Wiederauffindens unter Verwendung der Eigenschaften des Bildes, zum Beispiel von Merkmalswert- Informationen wie "Eigenschaft 'A' ist im Bild enthalten", sollten in anderen Worten solche Merkmalswert-Informationen an den Speichervorgang übergeben werden, und die Informationen sollten manuell eingegeben werden, um präzise und exakte Eingabe von Informationen sicherzustellen, und daher wurde viel Zeit benötigt, und das Ausführen einer solchen Eingabetätigkeit war in Abhängigkeit von der Zahl der Subjektrahmen praktisch unmöglich. Kürzlich wurden jene Untersuchungen zur automatischen Extraktion der Merkmalswert-Informationen gemäß dem Inhalt der Bilder durchgeführt ("Image Retrieval Adapted for Subjective Similarity", The Treatise Magazine of the Information Processing Society, Bd. 31, Nr. 2, S. 227-236, und andere). Die aus Bildern extrahierten Informationen wurden als die Feldwerte bei der Höhe des Eigenschaftsbetrags überprüft und gespeichert. Die vorstehend beschriebene automatische Extraktion weist jedoch auch ein Problem hinsichtlich der Genauigkeit auf.
- Daher werden in diesem Fall, wenn zwischen den Merkmalswert-Informationen und den zum Wiederauffinden bereitgestellten Eigenschaftsbetrags-Informationen eine Abweichung besteht, weitere Schritte zur Kompensation dieser Abweichung benötigt, um Genauigkeit zu erhalten.
- Es ist ein Anliegen der vorliegenden Erfindung, ein Verfahren und ein Gerät zum Wiederauffinden von dynamischen Bildern, sowie ein Verfahren und ein Gerät zur Verwaltung von Bildern bereitzustellen, wobei diese in der Lage sind, eines oder mehrere der vorstehenden Probleme zu lösen.
- Es ist ein anderes Anliegen der vorliegenden Erfindung, ein Verfahren und ein Gerät zum Wiederauffinden von dynamischen Bildern, sowie ein Verfahren und ein Gerät zur Verwaltung von Bildern bereitzustellen, wobei diese in der Lage sind, dynamische Bilder innerhalb einer kurzen Zeitspanne effizient wiederaufzufinden.
- Ein Artikel mit dem Titel "Scene retrieval method using temporal condition changes" von S. Aloe et al. in "Systems and Computers in Japan", Bd. 24, Nr. 7, 1993, Seiten 92-101 beschreibt eine Technik zur Videobildwiederauffindung, bei der ein dynamisches Bild wiederaufgefunden wird, indem ein Benutzer Eigenschaftsdaten unter Verwendung eines besonderen Sprachformats eingibt, wobei die Daten und die Verwendung der Sprache vom Benutzer festgelegt werden.
- Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Verfahren zum Wiederauffinden dynamischer oder benutzter Bilder bereitgestellt, wie es in Anspruch 1 dargelegt ist.
- Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Gerät zum Wiederauffinden eines bewegten Bildes bereitgestellt, wie es in Anspruch 8 dargelegt ist.
- Andere Merkmale und Vorteile der vorliegenden Erfindung werden mittels der folgenden Ausführungsbeispiele und der begleitenden Zeichnung ersichtlich.
- Dabei zeigen:
- Fig. 1 ein Ablaufdiagramm der Schritte eines ersten Ausführungsbeispiels der vorliegenden Erfindung;
- Fig. 2 ein Blockschaltbild eines Aufbaus von Hardware zur Implementierung des vorliegenden Ausführungsbeispiels;
- Fig. 3 eine Darstellung des Szenenwechsel- Erkennungsalgorithmus;
- Fig. 4 eine Darstellung des Szenenwechsel- Erkennungsalgorithmus;
- Fig. 5 eine Darstellung des Szenenwechsel- Erkennungsalgorithmus;
- Fig. 6 eine Darstellung der für den Szenenwechsel zu ergänzenden Informationen;
- Fig. 7 ein Diagramm der relationalen Informationen der Speicherung hinsichtlich der eingegebenen dynamischen Bilder;
- Fig. 8 ein Diagramm eines Schritts zum Extrahieren einer Eigenschaftsbetragssequenz, die als ein Suchschlüssel dient;
- Fig. 9 ein Diagramm eines Schritts zum Bestimmen einer Übereinstimmung zwischen dem eingegebenen dynamischen Bild und dem gespeicherten dynamischen Bild;
- Fig. 10 ein Blockschaltbild eines zweiten Ausführungsbeispiels der vorliegenden Erfindung;
- Fig. 11 ein Ablaufdiagramm jeweiliger Module, die in den Hauptspeicher 101 gemäß Fig. 1 eingebaut sind;
- Fig. 12 eine beispielhafte Darstellung des ausgewiesenen Bereichs; und
- Fig. 13 ein Beispiel der Tabelle.
- Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden unter Bezugnahme auf die anliegenden Zeichnungen ausführlich beschrieben.
- Mit Bezug auf Fig. 1 wird ein Ablaufdiagramm von Vorgängen eines Ausführungsbeispiels gemäß der vorliegenden Erfindung dargestellt. Verarbeitungsschritte können unterteilt werden in einen Eingabespeicherungs- Schritt zum Speichern einer Vielzahl von dynamischen oder bewegten wiederaufzufindenden Bildern und einen Wiederauffindungs-Schritt zum Ausführen der Wiederauffindung unter Verwendung der gegebenen dynamischen wiederaufzufindenden Bilder. Dieses Ausführungsbeispiel ist gekennzeichnet anhand von Einrichtungen 10 und 16 zur automatischen Szenenwechselerkennung, Einrichtungen 12 und 18 zur Eigenschaftsbetrags- bzw. -mengenberechnung, und einer Einrichtung 20 zur Übereinstimmungsbestimmung.
- Mit Bezug auf Fig. 2 wird ein Blockschaltbild eines Aufbaus einer Hardware zur Implementierung des vorliegenden Ausführungsbeispiels dargestellt. Bezugszeichen 30 bezeichnet eine Zentraleinheit CPU, 32 einen Hauptspeicher, der die Programme, Daten und den CPU-Arbeitsbereich zum Ausführen der folgenden Verarbeitung aufweist, 34 eine Video-Baugruppe zum Umwandeln analoger Videosignale von einem Video-Gerät 36 in digitale Signale und zum Übertragen dieser Signale über eine eingebaute Prozessoreinheit an einen Rahmenspeicher 38, und 40 eine Konsole zum Anzeigen des Bildes. Bezugszeichen 42 bezeichnet eine Festplattenvorrichtung und 44 einen Bus zum Übertragen von Daten zwischen den jeweiligen Komponenten der Hardware.
- Die Zentraleinheit (CPU) 30 kann unmittelbar auf den Rahmenspeicher 38 zugreifen und daher digitale dynamische Bilder direkt verarbeiten.
- Bei dem vorliegenden Ausführungsbeispiel werden extrahierte Szeneninformationen sowie zum Zeitpunkt von Eingabe und Speicherung dynamischer Bilder zum Erstellen der Datenbank vorhandene relationale Informationen auf der Festplatte 42 gespeichert, und die Inhalte werden für die Wiederauffindung referenziert.
- Bei dem vorliegenden Ausführungsbeispiel werden sowohl eine Eingabespeicherungs-Schaltung für dynamische Bilder zum Zeitpunkt der Erstellung der Datenbank als auch eine Wiederauffindungs-Schaltung, die dynamische Bilder als Schlüssel verwendet, mit Einrichtungen 10, 16 (Fig. 1) zur automatischen Szenenwechselerkennung versehen. Der Szenenwechsel bezieht sich auf einen unstetigen Wechsel der dynamische Bilder darstellenden Bildsequenz, wie zum Beispiel die Umschaltung der Kamera. Bei diesem Ausführungsbeispiel wird der Szenenwechsel durch Auslösen der Einrichtungen 10, 16 zur automatischen Szenenwechselerkennung gemäß einer in der CPU 30 zu verarbeitenden Software erkannt.
- Dynamische Bilder von dem Video-Gerät 36, die mittels der Video-Eingangsbaugruppe A/D-gewandelt werden, werden sequentiell über einen Bus 44 in dem Rahmenspeicher 38 gespeichert.
- Figs. 3, 4 bzw. 5 zeigen eine Vielzahl von Szenenwechsel- Erkennungsalgorithmen. Fig. 3 zeigt ein Verfahren, bei dem der Szenenwechsel festgestellt wird, wenn eine für den gesamten Rahmen geltende Gesamtsumme von Abweichungswerten der Bilddaten an den gleichen Koordinaten zweier zeitkontinuierlicher Rahmenbilder einen bestimmten Schwellenwert (T) übersteigt. Fig. 4 zeigt ein Verfahren, bei dem der Szenenwechsel festgestellt wird, wenn ein Wert einen bestimmten Schwellenwert (T2) übersteigt, wobei der Wert durch Zählen der Bildpunkt-Anzahl erhalten wird, für die der Abweichungswert der Bilddaten an den gleichen Koordinaten zweier zeitkontinuierlicher Rahmenbilder größer ist als der Schwellenwert (T1). Fig. 5 zeigt ein Verfahren, bei dem der Szenenwechsel festgestellt wird, wenn die Formen von jeweils für zwei zeitkontinuierliche Rahmenbilder erhaltenen Histogrammen nicht identisch sind. In diesem Zusammenhang kann die Ähnlichkeit der Form von Histogrammen aus der Gesamtsumme von Abweichungswerten an entsprechenden Frequenzwerte in den Histogrammen festgelegt werden.
- Wenn der Szenenwechsel i mit Bezug auf ein dynamisches Eingabebild zum Zeitpunkt der Eingabespeicherung auf eine der vorstehend beschriebenen Arten erkannt wird, wird die Rahmenpositionsinformation der dynamischen Eingabebilder des Szenenstart-Rahmens und des Szenenend-Rahmens für jede Szene erhalten. Folglich werden die Anzahl von Szenen sowie ein Paar der Szenenstart-Rahmennummer und der Szenenend-Rahmennummer zu dem dynamischen Eingabebild zugefügt, wie es in Fig. 6 gezeigt ist.
- Bei diesem Ausführungsbeispiel extrahiert die Einrichtung zur Eigenschaftsbetragsextraktion eine Länge jeder Szene (die Zahl der Rahmen zwischen Szenenwechseln) als einen Eigenschaftsbetrag. Dieser Betrag kann durch Subtrahieren der Start-Rahmennummer von der End-Rahmennummer jeder Szene und Addieren von 1 zum erhaltenen Ergebnis errechnet werden. Außerdem sind die relationalen Informationen von dynamischen Bildern zum Zeitpunkt der Eingabespeicherung vom Benutzer auch geliefert und entsprechende dynamische Bilder werden auf einer Festplattenvorrichtung 42 gespeichert, wie es in Fig. 7 dargestellt ist. In diesem Fall werden Name, Art, Bildquelle und Eingabedaten des dynamischen Bildes als ein Beispiel relationaler Informationen gleichzeitig gespeichert.
- Ein als ein Suchschlüssel dienendes dynamisches Bild wird zum Zeitpunkt der Wiederauffindung eingegeben, die vorstehend beschriebene automatische Szenenwechselerkennung und Eigenschaftsbetragsextraktion werden für ein solches als der Suchschlüssel dienendes dynamisches Bild ausgeführt, und eine Sequenz von Eigenschaftsbeträgen (Zahl der Rahmen) wird erhalten. Wenn die Zahl von Szenen drei oder weniger ist, wird bei diesem Ausführungsbeispiel eine Meldung "ein als der Schlüssel dienendes dynamisches Eingabebild ist übermäßig kurz" angezeigt, und die Wiederauffindung wird nicht ausgeführt. Ist die Zahl von Szenen dynamischer Eingabebilder vier oder mehr, werden die erste und die letzte Szene ignoriert, und nur eine zwischen der ersten und der letzten Szene enthaltene Sequenz von Szenen wird beachtet. Die Zahl von Szenen kann auch anders sein als die dieses Beispiels. Fig. 8 zeigt einen Prozess vom Suchschlüssel bis hin zur Extraktion der Eigenschaftsbetragssequenz.
- Als nächstes wird bestimmt, welche zum Zeitpunkt der Eingabespeicherung gespeicherte Eigenschaftsbetragssequenz mit einer bei der Eingabe des Suchschlüssels erhaltenen Eigenschaftsbetragssequenz übereinstimmt. Bei diesem Ausführungsbeispiel berücksichtigt der Erkennungsalgorithmus die aus dem einfach als Vektor eingegebenen und als Suchschlüssel dienenden dynamischen Bild zu erhaltende Eigenschaftsbetragssequenz, vergleicht sie mit einem gespeicherten Eigenschaftsbetrag für die gleiche Zahl von Sequenzen wie die Eigenschaftsbetragssequenz des Suchschlüssels, und vergleicht eine Distanz in einem Vektorraum mit dem Schwellenwert, wobei alle Teilsequenzen als Kandidaten dienen. Ist die Distanz in dem Vektorraum kleiner als der Schwellenwert, wird eine Möglichkeit zum Wiederauffinden eines Bildes als vorhanden betrachtet, das heißt eine passende Szene existiert. Fig. 9 zeigt den Erkennungsalgorithmus.
- Ist die passende Szene erhalten, werden die relationalen Informationen des als Ergebnis der Wiederauffindung wiederaufgefundenen dynamischen Bildes erhalten und dem Benutzer angezeigt. Ein gleichzeitig wiederaufgefundenes dynamisches Bild kann zur Bestätigung angezeigt werden.
- Obwohl die Zahl von Rahmen zwischen Szenenwechseln im vorstehenden Ausführungsbeispiel als der Eigenschaftsbetrag verwendet wird, ist der Eigenschaftsbetrag nicht auf diese Zahl von Rahmen beschränkt, und andere Eigenschaftsbeträge können verwendet werden. Bei diesem Ausführungsbeispiel wird zum Erkennen der passenden Szene ein extrem einfacher Algorithmus benutzt, und daher kann tatsächlich ein fehlerhaftes Ergebnis der Wiederauffindung enthalten sein, und eine derartige Wiederauffindung stellt vielmehr die Auswahl eines Kandidaten dar. Zur Verbesserung der Verlässlichkeit kann die Genauigkeit der Wiederauffindung erhöht werden, indem zum Beispiel ein Bild des mittleren Rahmens jeder Szene zum Benennen des Kandidaten für jede Szene gespeichert wird und Musterabgleich mit dem von dem Eingabebild auf ähnliche Weise erhaltenen mittleren Rahmen jeder Szene durchgeführt wird. Musterabgleich wird in diesem Fall zum Beispiel mittels Verarbeitung der Gesamtheit von Abweichungswerten zwischen Bildern hinsichtlich des Schwellenwertes und unter Verwendung der Bilder-Histogramme durchgeführt.
- Obwohl das wiederaufgefundene Bild mit einem Bild aus einem Speichermedium, wie z. B. einer Festplatte bei diesem Ausführungsbeispiel, beschrieben wird, ist das wiederaufzufindende Bild nicht auf das vorstehende beschränkt, und es ist klar, dass die vorliegende Erfindung auch bei der Wiederauffindung eines gewünschten dynamischen Bildes aus in der Datenbank enthaltenen dynamischen Bildern anwendbar ist, die durch eine Kommunikation wie etwa einer PC-Kommunikation übertragen wurden.
- Wie aus der vorstehenden Beschreibung leicht erkennbar ist, ermöglicht das vorliegende Ausführungsbeispiel das Wiederauffinden mit dynamischen Bildern als Suchschlüssel. Außerdem ermöglicht das Ausführungsbeispiel das Wiederauffinden relationaler Informationen aus gegebenen dynamischen Bildern innerhalb einer kurzen Zeitspanne ohne eine bemerkenswerte Zeitdauer bei der Eingabespeicherung oder bei der Wiederauffindung aufzuwenden.
- Fig. 10 zeigt ein Blockschaltbild eines zweiten Ausführungsbeispiels der vorliegenden Erfindung. In Fig. 10 bezeichnet Bezugszeichen 101 einen Hauptspeicher einschließlich von Software-Modulen, wie z. B. mindestens vier nachfolgend beschriebene Typen von Modulen, Software für einen Mehrfachfenster- und einen Arbeitsbereich einer Zentraleinheit (CPU) 102. 102 bezeichnet eine Zentraleinheit (CPU: central processing unit) zum Ausführen einer Verarbeitung gemäß den Software-Modulen im Hauptspeicher 101. 103 bezeichnet eine Festplatte, die dynamische Bilder, nachfolgend beschriebene relationale Informationen und Merkmalswert-Informationen speichert. Daten werden von einem Datenbank-Verwaltungssystem verwaltet. 104 bezeichnet eine Anzeige, die zum Implementieren einer interaktiven Funktion mit Benutzern verwendet wird, einschließlich Beschaffung verschiedener Informationen von Benutzern und Darstellung von Informationen wie dynamischer Bilder für Benutzer mittels der Steuerung durch das Mehrfachfenster-System wie einem X-Window-System. 105 bezeichnet eine Betriebseinheit mit einer Maus und einer Tastatur zum Bedienen dieses Systems.
- Fig. 11 zeigt ein Ablaufdiagramm der im Hauptspeicher 101 gemäß Fig. 10 zu speichernden Module. In Fig. 11 bezeichnet 201 ein Musterverwaltungsmodul für das Erscheinungsbild im ausgewiesenen Bereich zum Erhalten und Verwalten der benötigten Informationen mittels der interaktiven Funktion mit Benutzern. Bei diesem Ausführungsbeispiel erhält dieses Modul gleichzeitig die Informationen zum ausgewiesenen Bereich und die dem ausgewiesenen Bereich entsprechenden Merkmalsnamen- Informationen, die bei dem interaktiven Betrieb vergeben werden, ein Erscheinungsbildmuster, das als ein Beispielbild zum Erkennen der Merkmalswert-Informationen aus dem einzugebenden dynamischen Bildrahmen von einem Musterbestimmungsmodul für das Erscheinungsbild 202 benötigt wird, und die Merkmalswerte für jeweilige Erscheinungsbildmuster, und speichert die Informationen als Verwaltungsinformationen.
- Bezugszeichen 202 bezeichnet ein Musterbestimmungsmodul für das Erscheinungsbild, bei dem die Merkmalswert- Informationen des entsprechenden Bildmusters an das Datenbankverwaltungs-Modul 203 ausgegeben werden, wenn das Musterverwaltungsmodul für das Erscheinungsbild im ausgewiesenen Bereich bestimmt, dass das vorher ausgewiesene Merkmal als ein Ergebnis der Bestimmung bereitgestellt wird, ob ein ausgewiesener Bereich in jedem Rahmen eingegebener dynamischer Bilder gemäß der vorhergehenden Verwaltungsinformationen ein in dem Musterbestimmungsmodul für das Erscheinungsbild 202 ausgewiesenes Merkmal ist.
- Bezugszeichen 203 bezeichnet ein Datenbankverwaltungs- Modul, das ein Funktionsmodul darstellt, bei dem die Merkmalswert-Informationen und die dynamische Rahmensequenz, die für jede von dem Musterbestimmungsmodul für das Erscheinungsbild 202 einzugebende dynamische Bildrahmensequenz bestimmt werden, als numerische Zeicheninformationen und Bildinformationen auf der Festplatte 103 verwaltet werden, und Verwaltung dieser Informationen ist unter Verwendung allgemeiner, käuflich erhältlicher Datenbankverwaltungssysteme implementiert. Numerische Zeicheninformationen, wie z. B. relationale Informationen, einschließlich Namen dynamischer Bilder und Aufzeichnungszeit dynamischer Bilder, die von dem Datenbank-Benutzer in Übereinstimmung mit den vom Musterbestimmungsmodul für das Erscheinungsbild 202 ausgegebenen Merkmalswert-Informationen eingegeben sind, werden gemeinsam mit den Merkmalswert-Informationen in der Gestalt einer Tabelle auf der Festplatte 103 verwaltet. Eine als gemeinsames Datenbankverwaltungssystem verwendete relationale Datenbank RDB stellt im Rahmen des relationalen Betriebs die Wiederauffindungsfunktion zur Verfügung und kann daher unmittelbar zur Wiederauffindung dynamischer Bilder verwendet werden.
- Bezugszeichen 204 bezeichnet ein Wiederauffindungs-/ Darstellungsmodul für dynamische Bilder, das sowohl aus der Datenbank wiederaufgefundene dynamische Bilder darstellt als auch einen bestimmten Rahmen der dynamischen Bilder unter Verwendung des Datenbankverwaltungs-Moduls 203 darstellt, was zum Zweck einer exakteren Klassifizierung der dynamischen Bilder auf der Basis der relationalen Informationen auf der Wiederauffindungsbedingung beruht, die aus den relationalen Informationen des Rahmennamens und anderen Informationen von den Benutzern dieses Wiederauffindungssystems und den Merkmalsinformationen abgeleitet wird. Dem Namen des dynamischen Bildes entsprechende dynamische Bilddaten, die als ein aus dem Datenbankverwaltungs-Modul 203 ausgegebenes Wiederauffindungsergebnis den Inhalt des dynamischen Bildes darstellen, werden von der Festplatte 203 ausgelesen und auf der Anzeige 104 als das Ergebnis der Wiederauffindung angezeigt.
- Als ein praktisches Beispiel bei diesem Ausführungsbeispiel wird ein Vorgang zum Erhalten einer "Strike"-Zählungsinformation als die Merkmalswert- Information beschrieben, die bei einer TV- Baseballübertragungs-Szene in einem Eck eines Fernsehbildschirms als dynamische Subjektsbilddaten der Wiederauffindung angezeigt wird.
- Bei einem das Fenstersystem als Grundlage verwendenden interaktiven Umfeld bestimmt ein Programmierer der Datenbank dynamischer Bilder mittels der Maus der Betriebseinheit 105 als einen ausgewiesenen Bereich einen rechteckigen Bereich auf dem Fernsehbildschirm, auf dem die "Strike"-Zählung gemäß Fig. 12 angezeigt wird, und weiter bestimmt er während des Durchblätterns der Rahmen der dynamischen Bilder die Rahmen, die jeweils die "Strike"-Zählung von 0, 1 und 2 anzeigen, als Beispielrahmen der Erscheinungsbildmuster. Der Merkmalsname für den ausgewiesenen Bereich und die Merkmalswerte für die jeweiligen Beispielrahmen werden mittels der Tastatur der Betriebseinheit 105 eingegeben.
- Im folgenden werden die in dem Hauptspeicher 101 gemäß Fig. 10 zu speichernden Module beschrieben.
- Das Musterverwaltungsmodul für das Erscheinungsbild im ausgewiesenen Bereich 201 verwaltet die auf den mittels der Betriebseinheit 105 ausgewiesenen Bereich bezogenen Daten in der Gestalt einer Tabelle, wie sie in Fig. 13 dargestellt ist. Unter der Annahme der linken Eck- Koordinaten der Anzeige mit (x,y) = (0,0) werden im Speziellen insgesamt vier Integralwerte in der Gestalt der Tabelle verwaltet, zu denen die obere linke Eck- Koordinate (region_start-x,region-start-y) und die Breite und die Höhe des Vierecks (jeweils eine Bereichsbreite und eine Bereichshöhe), die die Informationen des ausgewiesenen Bereichs darstellen, und der gegebene Merkmalsname ("strike_count") gehören. Eine Liste dieser gleichzeitig erhaltbaren Werte wird mittels des Zeigers 205 verwaltet. Im Speziellen werden die verfügbaren Merkmalswerte und die Beispielbilddaten (Beispielmuster), aus denen die den Merkmalswerten entsprechenden Bereiche der Beispielrahmen ausgeschnitten werden, als die gemäß Fig. 13 dargestellten angeordneten Daten verwaltet.
- Das Musterbestimmungsmodul 202 für das Erscheinungsbild bestimmt während der Bezugsnahme auf die in Fig. 13 gezeigte Tabelle, die vom Musterverwaltungsmodul 201 für das Erscheinungsbild im ausgewiesenen Bereich verwaltet wird, ob ein Merkmalswerte für jeweilige Rahmen der einzugebenden Rahmensequenz der dynamischen Bilder eingestellt werden kann oder nicht. Als ein Ergebnis der Bestimmung wird eine solche Merkmalswert-Information, wie z. B. ein "Merkmalsname = Merkmalswert" ausgegeben, ebenso wie zum Beispiel "strike_count 1" ausgegeben wird. Wird bestimmt, dass ein entsprechendes Bildmuster nicht aufgetreten ist, wird eine Information wie "strike_count = nil" ausgegeben. Die Merkmalswert-Information wird als die vorstehend beschriebene Ausgabe auf der Festplatte 103 in Entsprechung zu den relationalen Informationen gespeichert, die vom Datenbank-Programmierer im Datenbankverwaltungs-Modul eingegeben, vom Datenbankmodul verwaltet und zur Wiederauffindung verwendet werden.
- Verschiedene Verfahren können als Verfahren zum Bestimmen des Auftretens des Bildmusters im Musterbestimmungsmodul für das Erscheinungsbild angenommen werden. Bei diesem Ausführungsbeispiel wird ein Maskenabgleich verwendendes Verfahren beschrieben. Ein Bildpunkt-Wert eines Beispielmusters t für jeweilige Merkmalswerte des ausgewiesenen Bereichs wird mit Pt(x,y) angenommen. Dabei bezieht sich t, jeweilige Beispielmuster kennzeichnend, entweder auf strike_count_0, strike_count_1 oder strike_count_2. x bzw. y verweisen auf 0 ≤ 0 ≤ region_width-1 und 0 ≤ y ≤ region_height-1. Die Parameter region_width und region_height kennzeichnen die Größe des ausgewiesenen Bereichs und bezeichnen die Breite und die Höhe des Beispielmusters, wie es in Fig. 13 gezeigt ist. Ist der Bildpunkt-Wert des in das Musterbestimmungsmodul 202 für das Erscheinungsbild einzugebenden Rahmens von dynamischen Bildern mit Q (x,y) angenommen, wird SUMt (δ,γ) = Σx,y Pt (x,y) - Q(region_start_x+x+δ, region_start_y+y+γ) im Intervall -t ≤ δ und γ ≤ t (t ist ein kleiner von ungefähr 5, das Intervall der Suche für den Maskenabgleich kennzeichnend) berechnet, und die geringsten Werte sollen jeweils minSUMt sein. Ist der Minimalwert von minSUMt in einem Intervall, in dem t existiert, größer als ein bestimmter Grenzwert, bedeutet das, dass das Ergebnis des Maskenabgleichs mit keinem der Beispielmuster identisch ist, und es soll entschieden werden, dass es keinen entsprechenden Merkmalswert gibt ("strike_count = nil"), und andernfalls wird der dem t entsprechende Merkmalswert, der den Minimalwert ableitet, ausgegeben (zum Beispiel "strike_count = 1", wenn t mit t = strike_count_1 das Minimum darstellt).
- Die relationalen Informationen des Namens dynamischer Bilder, die den dem dynamischen Bild des Rahmens, der als Ergebnis der vom Datenbankverwaltungs-Modul 203 ausgegebenen Wiederauffindung wiederaufgefunden ist, entsprechenden Inhalt der dynamischen Bilder kennzeichnen, und das der Wiederauffindung entsprechende dynamische Bild werden vom Wiederauffindungs-/ Darstellungsmodul 204 für dynamische Bilder gelesen und angezeigt, um das wiederaufgefundene dynamische Bild und einen bestimmten Rahmen in dem dynamischen Bild zu kennzeichnen.
- Dieses Ausführungsbeispiel hat bei der Wiederauffindungsoperation das Verfahren des Maskenabgleichs zwischen den Beispielbilddaten und dem ausgewiesenen Bereich in dem Eingaberahmen dynamischer Bilder verwendet. Bei einer überlagerten Information, wie z. B. einem Telop ("Television opaque" bzw. Fernsehbild), die als in dem dynamischen Bild synthetisiert ausgegeben wird, wird jedoch der Originalabschnitt des Hintergrunds dynamischer Bilder oft verwendet wie er ist. Ein Fehler kann in Abhängigkeit von der Genauigkeit des Maskenabgleichs bei der Bestimmung des Erscheinungsbildmusters verursacht werden, indem die Bildpunkte des Telop-Teils und die des dynamischen Bildteils verglichen werden. Zum Bestimmen des Bereichs im Musterverwaltungsmodul für das Erscheinungsbild werden die zu beachtenden Farben gleichzeitig bestimmt. Eine Vielzahl von zu beachtenden Farben kann mittels Klicken der Maus auf die zu beachtenden Farben ausgewählt werden, und die Genauigkeit der Bestimmung kann verbessert werden, indem der Maskenabgleich nur für die entsprechenden Bereiche ausgeführt wird.
- Sind die Bildpunkt-Werte sowohl des Beispielmusters als auch des Eingaberahmens nicht bei den Farben des eigentlichen Maskenabgleichs enthalten, werden die Differenz-Werte mit Null berechnet, und die Bildpunkt- Werte der Bereiche der zu beachtenden Farben werden verglichen.
- Bei diesem Ausführungsbeispiel werden die Merkmalswert- Informationen mittels Maskenabgleich des Erscheinungsbildmusters des ausgewiesenen Bereichs erkannt. Es ist jedoch offensichtlich, dass die vorliegende Erfindung nicht auf dieses Verfahren beschränkt ist, und die Merkmalswert-Informationen gemäß dem Ergebnis der Erkennung eines Histogramms des ausgewiesenen Bereichs erkannt werden können.
- Abweichend vom Stand der Technik, bei dem die Merkmalswert-Informationen mittels aller Rahmen von dynamischen Bildern eingestellt werden, ermöglicht die vorliegende Erfindung gemäß der vorstehenden Beschreibung die Merkmalswert-Informationen für jeweilige in den dynamischen Bildern enthaltene Rahmen automatisch gemäß dem Bildmuster einzustellen, das in den ausgewiesenen Bereichen der dynamischen Bilder auftritt, und daher wird für die automatische Erkennung der Merkmalswert- Informationen nicht viel Zeit benötigt und die Merkmalsfarb-Informationen brauchen nicht manuell eingegeben zu werden, wodurch außerordentlich viel menschliche Arbeitskraft gespart wird.
- Außerdem können die Merkmalsinformationen als numerische Information und als Zeicheninformation in allgemeinen Datenbankverwaltungsmodulen gespeichert und verwaltet werden, und dadurch bewirkt die vorliegende Erfindung einen Effekt, dass die den Inhalt dynamischer Bilder betreffende Wiederauffindung unter Verwendung einer flexiblen Beschreibung der Wiederauffindungsbedingung implementiert werden kann, wie z. B. relationaler Operation der Merkmalswerte.
Claims (13)
1. Verfahren zum Wiederauffinden eines dynamischen oder
bewegten Bildes aus in einer Datenbank als Serie von
Szenen gespeicherten dynamischen oder bewegten Bildern;
wobei das Verfahren aufweist:
einen ersten Extraktionsschritt des Extrahierens
von Daten, die für Veränderungen der Szenen in den
gespeicherten Daten charakteristisch sind, aus den in der
Datenbank gespeicherten Bildern, und
gekennzeichnet ist durch einen zweiten
Extraktionsschritt, der das Eingeben von dem wiederaufzufindenden
Bild entsprechenden dynamischen oder bewegten Bildern,
und das Extrahieren eines Satzes von Daten, die für
Szenenveränderungen der eingegebenen Daten
charakteristisch sind, aus den eingegebenen Daten aufweist;
und einen Auswahlschritt des Auswählens eines
dynamischen oder bewegten Bildes aus den in der Datenbank
gespeicherten Bildern unter Ausnutzung der in den
entsprechenden ersten und zweiten Extraktionsschritten
extrahierten charakteristischen Daten.
2. Verfahren nach Anspruch 1, bei dem die
charakteristischen Daten die Anzahl der Rahmen zwischen
Szenenveränderungen sind.
3. Verfahren nach Anspruch 1, bei dem die
charakteristischen Daten einen aus einer Vielzahl von Komponenten
bestehenden Vektor aufweisen, und eine Festlegung im
Festlegungsschritt entsprechend der Distanz in einem
Vektorraum zwischen den im ersten Extraktionsschritt
extrahierten charakteristischen Daten und den im
zweiten Extraktionsschritt extrahierten charakteristischen
Daten durchgeführt wird.
4. Verfahren nach einem der vorangehenden Ansprüche,
zusätzlich mit:
einem Speicherschritt zum Speichern relationaler
Informationen für jeden im ersten Extraktionsschritt
extrahierten Satz von charakteristischen Daten.
5. Verfahren nach einem der vorangehenden Ansprüche,
zusätzlich mit:
einem Anzeigeschritt zum Anzeigen relationaler
Informationen gemäß dem eingegebenen Bild entsprechend
dem Ergebnis des Auswahlschritts.
6. Verfahren nach Anspruch 5, bei dem ein bewegtes Bild
entsprechend dem eingegebenen Bild mit den relationalen
Informationen gemäß der Auswahl durch den
Auswahlschritt angezeigt wird.
7. Verfahren nach einem der vorangehenden Ansprüche, bei
dem Szenenveränderungen automatisch extrahiert werden.
8. Gerät zum Wiederauffinden eines dynamischen oder
bewegten Bildes aus in einer Datenbank als Serie von
Szenen gespeicherten dynamischen oder bewegten Bildern,
wobei das Gerät Mittel zum Eingeben eines Satzes von
Daten, der einem zu extrahierenden Bild entspricht, und
eine Einrichtung (20) zum Auswählen eines Bildes aus
der Datenbank in Abhängigkeit von den eingegebenen
Daten aufweist; und dadurch gekennzeichnet ist, dass die
Eingabemittel zum Eingeben dynamischer oder bewegter
Bilddaten angepasst sind, und, dass das Gerät zusätzlich
Extraktionsmittel (10, 12, 16, 18) aufweist,
erstens, zum Extrahieren von Daten aus der Datenbank, die
für Veränderungen in Szenen der gespeicherten Daten
charakteristisch sind, und zweitens, zum Extrahieren
von Daten aus den eingegebenen Daten, die für
Veränderungen in Szenen der eingegebenen Daten
charakteristisch sind, wobei die Auswahleinrichtung zum Auswählen
eines dynamischen oder bewegten Bildes aus den in der
Datenbank gespeicherten Bildern unter Ausnutzung der
jeweils aus den gespeicherten Bilddaten und den
eingegebenen Bilddaten extrahierten charakteristischen Daten
ausgelegt ist.
9. Gerät nach Anspruch 8, bei dem die extrahierten
charakteristischen Daten die Anzahl der Rahmen zwischen
Szenenveränderungen sowohl in den gespeicherten als
auch in den eingegebenen Bilddaten aufweisen.
10. Gerät nach Anspruch 8, bei dem die charakteristischen
Daten einen aus einer Vielzahl von Komponenten
bestehenden Vektor aufweisen, und die Auswahleinrichtung die
Distanz in einem Vektorraum zwischen den aus den
gespeicherten Bilddaten extrahierten charakteristischen
Daten und den aus den eingegebenen Bilddaten
extrahierten charakteristischen Daten ausnutzt.
11. Gerät nach einem der Ansprüche 8 bis 10, zusätzlich
mit:
einer Einrichtung zum Speichern relationaler
Informationen für aus den gespeicherten Bilddaten
extrahierte charakteristische Daten.
12. Gerät nach einem der Ansprüche 8 bis 11, zusätzlich
mit:
einer Anzeigeeinrichtung (104) zum Anzeigen von auf
die eingegebenen Daten bezogenen relationalen
Informationen in Abhängigkeit von der Ausgabe der
Auswahleinrichtung.
13. Gerät nach Anspruch 12, bei dem die
Anzeigeeinrichtung zum Anzeigen eines bewegten Bildes ausgelegt ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18829893A JP3200784B2 (ja) | 1993-07-29 | 1993-07-29 | 動画像検索方法及び装置 |
JP6125990A JPH07334511A (ja) | 1994-06-08 | 1994-06-08 | 動画像蓄積検索装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69432544D1 DE69432544D1 (de) | 2003-05-28 |
DE69432544T2 true DE69432544T2 (de) | 2003-12-11 |
Family
ID=26462272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69432544T Expired - Lifetime DE69432544T2 (de) | 1993-07-29 | 1994-07-28 | Verfahren und Gerät zum Wiederauffinden von dynamischen Bildern und zur Verwaltung von Bildern |
Country Status (3)
Country | Link |
---|---|
US (1) | US6606636B1 (de) |
EP (1) | EP0636994B1 (de) |
DE (1) | DE69432544T2 (de) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6661838B2 (en) * | 1995-05-26 | 2003-12-09 | Canon Kabushiki Kaisha | Image processing apparatus for detecting changes of an image signal and image processing method therefor |
US8107015B1 (en) | 1996-06-07 | 2012-01-31 | Virage, Incorporated | Key frame selection |
JP3780623B2 (ja) | 1997-05-16 | 2006-05-31 | 株式会社日立製作所 | 動画像の記述方法 |
US6072904A (en) * | 1997-12-31 | 2000-06-06 | Philips Electronics North America Corp. | Fast image retrieval using multi-scale edge representation of images |
JP4146955B2 (ja) * | 1999-02-15 | 2008-09-10 | キヤノン株式会社 | 画像処理方法及び画像処理装置 |
JP2000275604A (ja) * | 1999-03-23 | 2000-10-06 | Hitachi Ltd | 液晶表示装置 |
JP4163376B2 (ja) * | 2000-09-19 | 2008-10-08 | 富士フイルム株式会社 | データベース装置およびその動作制御方法 |
WO2002073955A1 (en) * | 2001-03-13 | 2002-09-19 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, studio apparatus, storage medium, and program |
KR100998899B1 (ko) * | 2003-08-30 | 2010-12-09 | 엘지전자 주식회사 | 썸네일 영상 서비스 방법 및 방송 수신기 |
US7835596B2 (en) * | 2003-12-16 | 2010-11-16 | International Business Machines Corporation | Componentized application sharing |
JP4974586B2 (ja) * | 2006-05-24 | 2012-07-11 | オリンパス株式会社 | 顕微鏡用撮像装置 |
KR101117915B1 (ko) * | 2008-06-30 | 2012-03-08 | 에스케이플래닛 주식회사 | 이종 기기간 동일 영상 재생 시스템 및 방법 |
JP5658500B2 (ja) | 2010-07-26 | 2015-01-28 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
JP6398341B2 (ja) * | 2014-06-09 | 2018-10-03 | 富士通株式会社 | 映像抽出方法、映像再生方法、プログラム、及び装置 |
CN111026896B (zh) * | 2019-11-15 | 2023-09-01 | 浙江大华技术股份有限公司 | 特征值存储、处理方法、设备及存储装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6110360A (ja) | 1984-06-26 | 1986-01-17 | Canon Inc | 画像処理装置 |
US5113494A (en) * | 1987-02-27 | 1992-05-12 | Eastman Kodak Company | High speed raster image processor particularly suited for use in an image management system |
US5095447A (en) * | 1988-03-25 | 1992-03-10 | Texas Instruments Incorporated | Color overlay of scanned and reference images for display |
US5091849A (en) * | 1988-10-24 | 1992-02-25 | The Walt Disney Company | Computer image production system utilizing first and second networks for separately transferring control information and digital image data |
US5155588A (en) * | 1990-02-06 | 1992-10-13 | Levien Raphael L | Color correction and apparatus for photographic reproduction |
US5436985A (en) * | 1993-05-10 | 1995-07-25 | Competitive Technologies, Inc. | Apparatus and method for encoding and decoding images |
-
1994
- 1994-07-27 US US08/281,007 patent/US6606636B1/en not_active Expired - Fee Related
- 1994-07-28 EP EP94305599A patent/EP0636994B1/de not_active Expired - Lifetime
- 1994-07-28 DE DE69432544T patent/DE69432544T2/de not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP0636994A1 (de) | 1995-02-01 |
EP0636994B1 (de) | 2003-04-23 |
US6606636B1 (en) | 2003-08-12 |
DE69432544D1 (de) | 2003-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69432544T2 (de) | Verfahren und Gerät zum Wiederauffinden von dynamischen Bildern und zur Verwaltung von Bildern | |
DE69604481T2 (de) | Verfahren und gerät zum trennen des vordergrunds und hintergrunds in textenthaltenden bildern | |
DE69120001T2 (de) | Verfahren zur Erfassung von Wechselstellen in bewegten Bildern | |
DE69125234T2 (de) | Bildverarbeitungssystem | |
DE69434364T2 (de) | Bildabrufverfahren und-vorrichtung | |
DE69230331T2 (de) | Computervorrichtung und verfahren zur identifizierung von finite-elementen in der interaktiven modellierung | |
DE69428447T2 (de) | Datenanzeigegerät und verfahren zur anzeige von numerischen mustern eines datensignals auf einem bitorganisierten anzeigesystem | |
DE69322470T2 (de) | System und Verfahren zur Lokalisierung von Videosegmentübergängen | |
DE69511620T2 (de) | Videoverarbeitungssystem | |
DE3688178T2 (de) | Verfahren zur Bildextraktion eines sich bewegenden Objekts. | |
DE3689416T2 (de) | Mustermerkmalextraktion. | |
DE60037485T2 (de) | Signalverarbeitungsverfahren und Videosignalprozessor zum Ermitteln und Analysieren eines Bild- und/oder Audiomusters | |
DE69231809T2 (de) | Verfahren und Vorrichtung zur Kantendetektion und Abtrennung eines gegebenen Subjekts aus einem Bild | |
DE102019005423A1 (de) | Raum-Zeit-Speicher- bzw. Ablagenetzwerk zum Lokalisieren eines Zielobjektes in Videocontent | |
DE3587738T2 (de) | Sich selbst regelndes Beobachtungssystem. | |
DE112017002821T5 (de) | Verfahren, System und Computerprogrammprodukt zur interaktiven Identifizierung von gleichen Personen oder Objekten in Videoaufnahmen | |
DE112016002373T5 (de) | Tracking-support-vorrichtung, tracking-support-system und tracking-support-verfahren | |
DE3825005A1 (de) | Bilderkennungsanordnung | |
DE19843445A1 (de) | Navigationssystem für eine Dokumentbilder-Datenbank | |
DE3520014A1 (de) | Datenkorrelationsanordnung und verfahren zur bestimmung von anpassungen durch pseudokorrelationswerte | |
DE69422885T2 (de) | Vorrichtung zur Segmentierung von Fingerabdruckbildern für Zehnfingerkarten | |
DE69232452T2 (de) | Expertensystem mit einem Wissenserfassungsunterstützungssystem | |
DE3854835T2 (de) | Verfahren und Apparat zur Klassifizierung graphischer Segmente, um Auswahl- und Anzeigeoperation zu erleichtern | |
DE60222380T2 (de) | System und verfahren zum extrahieren eines interessierenden punktes bei einem objekt, das sich vor einer computersteuerbaren anzeige befindet und von einem bildgebenden gerät aufgenommen wird | |
DE112021006604T5 (de) | Dynamisches in-rangordnung-bringen von facetten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |