DE60215063T2 - System und verfahren zur ermittlung von bildähnlichkeiten - Google Patents

System und verfahren zur ermittlung von bildähnlichkeiten Download PDF

Info

Publication number
DE60215063T2
DE60215063T2 DE60215063T DE60215063T DE60215063T2 DE 60215063 T2 DE60215063 T2 DE 60215063T2 DE 60215063 T DE60215063 T DE 60215063T DE 60215063 T DE60215063 T DE 60215063T DE 60215063 T2 DE60215063 T2 DE 60215063T2
Authority
DE
Germany
Prior art keywords
image
probability
features
color
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60215063T
Other languages
English (en)
Other versions
DE60215063D1 (de
Inventor
c/o Eastman Kodak Company Jiebo Rochester Luo
c/o Eastman Kodak Company Wei Rochester Zhu
c/o Eastman Kodak Company George E. Rochester Sotak
c/o Eastman Kodak Company Robert T. Rochester Gray
c/o Eastman Kodak Company Rajiv Rochester Mehrotra
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Application granted granted Critical
Publication of DE60215063D1 publication Critical patent/DE60215063D1/de
Publication of DE60215063T2 publication Critical patent/DE60215063T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • Y10S707/99936Pattern matching access

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

  • Die vorliegende Erfindung betrifft Systeme und Verfahren zur Verarbeitung von Bildern. Insbesondere betrifft die vorliegende Erfindung Systeme und Verfahren zur Veranlassung eines automatischen Bildabrufs.
  • Ein bildgestützter Dokumentenabruf wird für diverse Kunden sowie kommerzielle und behördliche Anwendungen benötigt. Ursprünglich wurden Bilder manuell abgerufen. Mit zunehmender Größe der Bilddatenbanken wurden allerdings automatische Bildabrufsysteme entwickelt, um den Such- und Abrufvorgang zu beschleunigen.
  • Ein konventioneller automatischer Ansatz umfasst die Zuordnung bestimmter Schlüsselwörter zu jedem Bild in einer Datenbank. Bilder werden mittels Schlüsselwortsuche abgerufen. Ein Nachteil dieses Systems ist allerdings die zeitintensive Eingabe der Schlüsselwörter für große Datenbanken. Außerdem ist der Ansatz sehr stark von der relativ subjektiven manuellen Zuordnung von Schlüsselwörtern für jedes Bild und für die Suche selbst abhängig. Zudem unterliegt der Ansatz einer Beschränkung bezüglich den Möglichkeiten der angemessenen Beschreibung eines Bildes, um eine effektive Suche zu ermöglichen.
  • Ein weiterer Ansatz ist der automatische, inhaltgestützte Bildabruf (CBIR/Content-Based Image Retrieval). Dieses System umfasst eine Analyse jedes gespeicherten Bildes in Bezug auf dessen Inhalt (anhand von Farbe, Textur, Form usw.). Beispielsweise wird der Farbgehalt in einem Histogramm gespeichert. Bei dem Such- und Abrufprozess wird das Histogramm eines abgefragten Bildes mit den gespeicherten Histogrammdaten verglichen, um die beste Übereinstimmung zu finden. Dieses System berücksichtigt jedoch nicht die räumliche Verteilung der Farbdaten.
  • Der meistgenutzte Ansatz für das Durchsuchen einer Datenbank zur Auswahl und zum Abrufen von Bildern ist ähnlich einer Abfrage zum Vergleichen des abgerufenen Bildes mit Bildern in der Datenbank unter Verwendung ihrer merkmalsgestützten Darstellung mittels Distanzfunktionen. (Siehe US-A-5,579,471, "Image Query System and Method", erteilt am 26. November 1996 an R. J. Barber et al.; US-A-5,852,823, "Automatic Image Classification and Retrieval System From Database Using Query-By-Example Paradigm", erteilt am 22. Dezember 1998 an J. S. De Bonet; "Color Indexing", veröffentlicht im Intl. Journal of Computer Vision, von M. J. Swain und D. H. Ballard, Band 7, Nr. 1, 1991, Seite 11–32; und "Comparing Images Using Color Coherence Vectors", veröffentlicht von G. Pass, et al., in Proceedings ACM Multimedia Conf., (1996).
  • Diese Techniken stellen ein Bild anhand ihrer beschreibenden Merkmale dar, wie Farbe oder Textur. Bei einem gegebenen Abfragebild Q wird dessen merkmalsgestützte Darstellung mit der Darstellung jedes Bildes I in der Datenbank zur Berechnung der Ähnlichkeit von Q und I verglichen. Die Bilder in der Datenbank werden dann in absteigender Reihenfolge ihrer Ähnlichkeit in Bezug auf das Abfragebild eingestuft, um eine Antwort auf die Frage zu bilden. Ein wesentlicher Nachteil dieser Techniken besteht darin, dass keine Unterscheidung zwischen wahrnehmbar signifikanten und insignifikanten Bildmerkmalen in der Bilddarstellung und in den Abstimmungsschemata getroffen wird.
  • Im Allgemeinen ermittelt ein menschlicher Beobachter die inhaltsgestützte Ähnlichkeit von zwei Bildern hauptsächlich auf der Grundlage der wahrnehmbar signifikanten Inhalte des Bildes und nicht anhand der feineren Details. Durch Nachahmung dieses Verhaltens könnte ein Ähnlichkeitsabrufsystem Ergebnisse erzeugen, die mit der menschlichen Interpretation von Ähnlichkeit stärker übereinstimmen. Diese Tatsache ist jedoch bislang nicht von einer der vorstehend genannten Techniken genutzt worden.
  • In der US-Parallelanmeldung mit dem Titel "Perceptually Significant Feature-based Image Archival and Retrieval", eingereicht am 14. April 1999 von Wei Zhu und Rajiv Mehrotra, und als Europäische Patentanmeldung Nr. EP 1045313 veröffentlicht, versuchen Zhu et al. die zuvor genannten Nachteile durch Darstellung eines Bildes anhand seiner wahrnehmbar signifikanten Merkmale zu überwinden. Somit wird die Ähnlichkeit von zwei Bildern eine Funktion der Ähnlichkeit ihrer wahrnehmbar signifikanten Merkmale.
  • Bei diesem Ansatz werden die Bildmerkmale aus den Eigenschaften des gesamten Bildes extrahiert. Es gibt keine Flexibilität bei der Berechnung von Bildmerkmalen oder beim Vergleichen von Bildähnlichkeiten anhand des Hauptobjekts oder der Hintergrundbereiche. Es lassen sich daher keine stärker zielgerichteten Suchläufe durchführen, wie beispielsweise die Suche nach Bildern mit ähnlichen Hauptobjekten aber verschiedenen Hintergründen, als in der Abfrage angegeben.
  • Am 14. März 2000 wurde US-A-6,038,365 mit dem Titel "Image Retrieval-Oriented Processing Apparatus Which Generates and Displays Search Image Data That Is Used As Index" an T. Yamagami erteilt. Eine Bildverarbeitungsvorrichtung gemäß jeder Erfindung umfasst eine Bestimmungseinheit, die vorgesehen ist, um einen Bildbereich zu bezeichnen, der als Abrufbild aus einem Bild vorgesehen ist, das auf einem Aufzeichnungsmedium aufgezeichnet ist, eine Speichereinheit, um die Bildbereichsdaten zu speichern, die den Bildbereich darstellen, der durch die Bestimmungseinheit bestimmt ist, in Verbindung mit dem entsprechenden aufgezeichneten Bild, und eine Anzeigeeinheit, um ein Bild des Bildbereichs als Abrufbild auf der Grundlage des entsprechenden Bildbereichs anzuzeigen, der in der Speichereinheit gespeichert ist.
  • Eine Bildverarbeitungsvorrichtung nach US-A-6,038,365 umfasst zudem eine Bestimmungseinheit, um einen Bildbereich aus einem Originalbild, das einen Schirm als Abrufbild darstellt, zu bestimmen, eine Speichereinheit, um das von der Bestimmungseinheit in Verbindung mit dem entsprechenden Originalbild bestimmte Abrufbild zu speichern, eine Anzeigeeinheit, um das Abrufbild wie von der Bestimmungseinheit bestimmt anzuzeigen, eine Anweisungseinheit, um das Abrufbild wie von der Anzeigeeinheit angezeigt anzuweisen, und eine Anzeigesteuerungseinheit, um das Originalbild an der Anzeigeeinheit entsprechend dem Abrufbild und wie von der Anweisungseinheit angewiesen anzuzeigen.
  • Yamagami scheint demnach die Verwendung eines ausgewählten Bereichs eines Bildes für den Bildabruf zu beschreiben. Allerdings erfolgt die Auswahl manuell mittels einer Bestimmungseinheit. Der Verwendung des ausgewählten Bereichs liegt ein Problem bei der Bildverkleinerung zugrunde, die die Zeichen zu klein werden lässt, als dass sie noch lesbar wären. Da Bilddaten im Allgemeinen nur erkannt werden können, wenn ein menschliches Wesen diese anschaut, kann bei der Reproduktion von Bilddaten eine Liste mit einer Vielzahl reproduzier ter Bilder allgemein angezeigt werden, so dass der Benutzer den Inhalt der Bilddateien prüfen kann, indem er die reduzierten Bilder selbst als Abrufbilder verwendet. Bei der Abrufanzeige reduzierter Bilder, und weil ein Bild einfach beispielsweise auf ein Achtel in Längs- und Querrichtung verkleinert wird, kann das reduzierte Bild allerdings zu klein sein, um mühelos erkannt zu werden, was die Verwendung dieses reduzierten Bildes als Abrufbild unmöglich macht.
  • Demnach beschreibt Yamagami in US-A-6,038,365 keine automatische, vielseitige Bildabrufvorrichtung. Auch ist die Erfindung von Yamagami nicht auf einem automatischen Szene-Inhalt-Analyseschema aufgebaut. Es besteht daher in der Technik Bedarf nach einem genaueren System oder Verfahren zum automatischen Abrufen von Bildern aus einer Datenbank.
  • Das Problem wird von dem erfindungsgemäßen System und Verfahren zum Bestimmen der Bildähnlichkeit gelöst. Das erfindungsgemäße Verfahren umfasst die Schritte des automatischen Bereitstellens wahrnehmbar signifikanter Merkmale des Hauptmotivs oder des Hintergrunds eines ersten Bildes; das automatische Bereitstellen wahrnehmbar signifikanter Merkmale des Hauptmotivs oder des Hintergrunds eines zweiten Bildes; das automatische Vergleichen der wahrnehmbar signifikanten Merkmale des Hauptmotivs oder des Hintergrunds des ersten Bildes mit dem Hauptmotiv oder dem Hintergrund des zweiten Bildes und das Bereitstellen einer Ausgabe in Abhängigkeit davon.
  • In der exemplarischen Implementierung werden die Merkmale mithilfe einer Anzahl von Wahrscheinlichkeitsstufen bereitgestellt, wobei die Zahl der Wahrscheinlichkeitsstufen vorzugsweise größer als zwei ist. In dem exemplarischen Ausführungsbeispiel umfasst der Schritt des automatischen Bereitstellens von wahrnehmbar signifikanten Merkmalen des Hauptmotivs oder des Hintergrunds des ersten Bildes die Schritte des automatischen Identifizierens des Hauptmotivs oder des Hintergrunds des ersten Bildes und den Schritt des Identifizierens der wahrnehmbar signifikanten Merkmale des Hauptmotivs oder des Hintergrunds des ersten Bildes. Weiterhin umfasst der Schritt des automatischen Bereitstellens von wahrnehmbar signifikanten Merkmalen des Hauptmotivs oder des Hintergrunds des zweiten Bildes die Schritte des automatischen Identifizierens des Hauptmotivs oder des Hintergrunds des zweiten Bildes und den Schritt des Identifizierens der wahrnehmbar signifikanten Merkmale des Hauptmotivs oder des Hintergrunds des zweiten Bildes.
  • Die wahrnehmbar signifikanten Merkmale können Farbe, Textur und/oder Form umfassen. In dem bevorzugten Ausführungsbeispiel wird das Hauptmotiv durch eine kontinuierlich bewertete Wahrscheinlichkeitstabelle bezeichnet. Die Wahrscheinlichkeitswerte des Hauptmotivs werden durch Segmentieren des Bildes in Bereiche aus homogener Farbe und Textur bestimmt, wobei mindestens ein Strukturmerkmal und mindestens ein semantisches Merkmal für jeden Bereich berechnet werden, und durch Berechnen eines Wahrscheinlichkeitswerts für alle Pixel in dem Bereich unter Verwendung eines Bayesschen Netzes, um die Merkmale zu kombinieren.
  • In einer illustrativen Anwendung ist das erfindungsgemäße Verfahren in einem Bildabrufsystem implementiert. In dieser Implementierung speichert das erfindungsgemäße Verfahren wahrnehmbar signifikante Merkmale des Hauptmotivs oder des Hintergrunds einer Vielzahl von ersten Bildern in einer Datenbank, um den Abruf eines Zielbildes in Ansprechen auf eine Eingabe oder ein Abfragebild zu ermöglichen. Merkmale, die jedem der Vielzahl von gespeicherten Bildern entsprechen, werden automatisch nacheinander mit ähnlichen Merkmalen des Abfragebildes verglichen. Die vorliegende Erfindung stellt demnach ein automatisches System und Verfahren zur Steuerung der Merkmalsextraktion, Darstellung und merkmalsgestützten Ähnlichkeits-Abrufstrategien eines inhaltsgestützten Bildarchivierungs- und Bildabrufsystems auf Basis einer Analyse des Hauptmotivs und des Hintergrunds bereit, abgeleitet von einer kontinuierlich bewerteten Hauptmotiv-Wahrscheinlichkeitstabelle.
  • Die Erfindung wird im folgenden anhand in der Zeichnung dargestellter Ausführungsbeispiele näher erläutert.
  • Es zeigen:
  • 1 ein Blockdiagramm eines Ausführungsbeispiels eines automatischen Hauptmotivermittlungssystems.
  • 2 ein vereinfachtes Blockdiagramm eines allgemeinen Schemas für die erfindungsgemäße Bildmerkmalsextraktion.
  • 3 ein Ablaufdiagramm zur Darstellung eines Ausführungsbeispiels für ein Verfahren zur erfindungsgemäßen Identifizierung der wahrnehmbar signifikanten Farben eines Wahrscheinlichkeitsstufenbildes.
  • 4 ein Ablaufdiagramm zur Darstellung eines alternativen Ausführungsbeispiels für ein Verfahren zur erfindungsgemäßen Identifizierung der wahrnehmbar signifikanten Farben eines Wahrscheinlichkeitsstufenbildes.
  • 5 ein Ablaufdiagramm eines Verfahrens zur erfindungsgemäßen Identifizierung wahrnehmbar signifikanter Texturen.
  • 6 u. 7 vereinfachte Blockdiagramme eines allgemeinen Schemas für den erfindungsgemäßen Bildrückabruf.
  • 8 ein Diagramm zur Darstellung einer Reihe von Wahrscheinlichkeitsstufendarstellungen zur Veranschaulichung zahlreicher Optionen für den erfindungsgemäßen Bildabruf.
  • Ausführungsbeispiele und exemplarische Anwendungen werden unter Bezug auf die anliegenden Zeichnungen beschrieben, um die Vorteile der vorliegenden Erfindung darzulegen.
  • Die Erfindung wird zwar unter Bezug auf Ausführungsbeispiele für bestimmte Anwendungen beschrieben, dies ist aber nicht einschränkend zu verstehen. Einschlägige Fachleute werden weitere Abwandlungen, Anwendungen und Ausführungsbeispiele innerhalb des Umfangs der Erfindung sowie zusätzliche Felder erkennen, in denen die vorliegende Erfindung von erheblichem Nutzen ist.
  • Wie zuvor erläutert, ermittelt die vorliegende Erfindung eine Bildähnlichkeit gemäß einer Analyse des Hauptmotivs in der Szene. Ein System zur Ermittlung von Hauptmotiven (d.h. Hauptmotivermittlung oder "MSD/Main Subject Detection") in einem fotografischen Bild für Unterhaltungs- oder Verbraucherzwecke aus der Perspektive eines dritten Beobachters wird in der Parallelanmeldung mit der US-Seriennummer 09/223,860 beschrieben, eingereicht am 31. Dezember 1998 von J. Luo et al. mit dem Titel "METHOD FOR AUTOMATIC DETERMINATION OF MAIN SUBJECTS IN PHOTOGRAPHIC IMAGES" (Attorny-Docket-Nr. 78783) und unter der US-Patentnummer US6282317 veröffentlicht.
  • Die Hauptmotivermittlung verleiht ein Maß der relativen Bedeutung der unterschiedlichen Bereiche, die den unterschiedlichen Motiven in einem Bild zugeordnet sind. Die Hauptmotivermittlung ermöglicht eine kritische Behandlung des Szeneninhalts für eine Reihe von Anwendungen, die mit den unterhaltungsfotografischen Bildern in Beziehung stehen, einschließlich des automatischen inhaltsgestützten Bildabrufs.
  • Die konventionelle Kenntnis im Bereich der Computervision, bei der man nachzuahmen versucht, wie ein menschlicher Betrachter solche Aufgaben, wie die Hauptmotivermittlung und Motivextraktion durchführen würde, verlangt einen Problemlösungsansatz über die Motiverkennung und die Inhaltsbestimmung der Szene entsprechend der semantischen Bedeutung der erkannten Motive. Trotz jahrzehntelanger Bemühungen in Wissenschaft und Industrie bleibt eine generische Motiverkennung jedoch eine weitgehend ungelöste Aufgabe.
  • Das MSD-System baut weitgehend auf Visionsmerkmalen auf niedriger Ebene mit integrierten semantischen Informationen auf, soweit verfügbar. Dieses MSD-System umfasst eine Reihe von Komponenten, einschließlich der Bereichssegmentierung, der Merkmalsextraktion und der Wahrscheinlichkeitsbegründung. Insbesondere wird eine große Zahl von Merkmalen aus jedem segmentierten Bereich in dem Bild extrahiert, um eine Vielzahl visueller Haupteigenschaften darzustellen, die dann in ein abstimmbares, erweiterbares Wahrscheinlichkeitsnetzwerk eingegeben werden können, um eine Wahrscheinlichkeitstabelle zu erstellen, die ein Kontinuum von Werten enthält.
  • Mithilfe der Hauptmotivermittlung werden Bereiche, die dem Hauptmotiv zugeordnet sind, allgemein von dem Hintergrund im Bild unterschieden. Ein selektiver Abruf gemäß ähnlichen Hauptmotiven oder ähnlichen Hintergründen wird damit möglich. Es wird sogar möglich, einen selektiven Abruf gemäß nicht ähnlicher Hauptmotive oder nicht ähnlicher Hintergründe durchzuführen.
  • Eine automatische motivgestützte Bildindizierung ist ein nicht trivialer Vorgang, der für nicht eingeschränkte Bilder, die nicht zwingend einen gleichmäßigen Hintergrund enthalten, ohne eine bestimmte Differenzierung nach Szenenverständnis und Szeneninhalt als unmöglich erachtet würde. Bei Abwesenheit einer automatischen Motiv-/Hintergrundtrennung müssen sich konventionelle Systeme entweder auf eine manuell erstellte Maske stützen, um zu verdeutlichen, wo sich das Hauptmotiv befindet, oder sie haben keine Möglichkeit des motivgestützten Bildabrufs. Das manuelle Verfahren ist aufwändig und daher für die kommerzielle Massenverarbeitung im Unterhaltungsbereich nicht durchführbar.
  • 1 zeigt ein Blockdiagramm zur Darstellung eines Ausführungsbeispiels eines automatischen Hauptmotivermittlungssystems, das gemäß der Beschreibung der zuvor genannten Anmeldung mit der US-Patentnummer US6282317 von Luo et al implementiert ist. Gemäß dem System 10' von Luo et al. wird zunächst ein Eingabebild 12' in einige Bereiche von homogenen Eigenschaften (z.B. Farbe und Textur) in einem Bildsegmentierungs-Verarbeitungsschritt 14' segmentiert. Dann werden die Bereiche in einem Merkmalsextraktions-Verarbeitungsschritt 16' auf ihre Bedeutung in Bezug auf zwei unabhängige, jedoch komplementäre Typen bewertet, nämlich auf strukturelle Merkmale und auf semantische Merkmale. Beispielsweise ist die Erkennung von menschlicher Haut oder menschlichen Gesichtern semantisch, während die Ermittlung, was aus dem Hintergrundgemenge hervorsteht, als strukturelle kategorisiert ist. Für strukturelle Merkmale wird ein Satz von Visionsmerkmalen auf niedriger Ebene und ein Satz von geometrischen Merkmalen extrahiert. Für semantische Merkmale werden Schlüsselmotivmerkmale, die in fotografischen Bildern häufig anzutreffen sind, ermittelt. In einem Wahrscheinlichkeitsberechnungs-Verarbeitungsschritt 18' erfolgt die Integration beider Merkmalstypen mithilfe einer Bayesschen netzgestützten Entscheidungsmaschine, um die Wahrscheinlichkeitstabelle 22' des Hauptmotivs zu erzeugen. Zur Bedeutung von Bayesschen Netzen siehe J. Pearl, Probabilistic Reasoning in Intelligent Systems, Morgan Kaufmann, San Francisco, CA, USA, 1988.
  • Ein strukturelles Merkmal ist die zentrale Lage. Was die Lage angeht, liegt das Hauptmotiv tendenziell in Nähe der Bildmitte anstatt an der Bildperipherie, allerdings nicht unbedingt im Mittelpunkt des Bildes. Profifotografen platzieren das Hauptmotiv meist nach der Regel des „goldenen Schnitts".
  • Bekanntermaßen reicht aber der Schwerpunkt des Bereichs nicht unbedingt aus, um die Lage eines Bereichs anzuzeigen, wenn keine Hinweise auf dessen Größe und Form vorliegen. Ein Maß für die zentrale Lage wird durch Berechnung des Integrals einer Wahrscheinlichkeitsdichtefunktion (PDF/Probability Density Function) über der Fläche eines gegebenen Bereichs definiert. Die Wahrscheinlichkeitsdichtefunktion wird von den Grundwahrheitsdaten abgeleitet, in denen die Hauptmotivbereiche manuell umrissen und mit einem Wert 1 markiert sind, während die Hintergrundbereiche mit einem Wert 0 markiert sind, indem die Grundwahrheitstabellen über den gesamten Trainingssatz summiert werden. Die Wahrscheinlichkeitsdichtefunktion stellt also im Wesentlichen die Verteilung der Hauptmotive in Bezug auf deren Lage dar.
  • Erfindungsgemäß wird ein Maß für die zentrale Lage derart abgeleitet, dass jedes Pixel in einem gegebenen Bereich, also nicht nur der Schwerpunkt, zum Maß der zentralen Lage des Bereichs in unterschiedlichem Maße und abhängig von der Lage beiträgt. Das Maß für die zentrale Lage ist definiert als:
    Figure 00090001
    wobei (x, y) für ein Pixel in dem Bereich R steht und NR für die Zahl der Pixel in dem Bereich R steht. Wenn die Ausrichtung unbekannt ist, wird die Wahrscheinlichkeitsdichtefunktion symmetrisch um den Bildmittelpunkt in vertikaler und horizontaler Richtung angeordnet, woraus ein ausrichtungsunabhängiges Maß für die zentrale Lage resultiert. Wenn die Ausrichtung bekannt ist, wird die Wahrscheinlichkeitsdichtefunktion um den Bildmittelpunkt in horizontaler Richtung angeordnet, aber nicht in vertikaler Richtung, woraus ein ausrichtungsabhängiges Maß für die zentrale Lage resultiert.
  • Ein weiteres Strukturmerkmal ist die Randlage. Viele Hintergrundbereiche berühren tendenziell einen Bildrand oder mehrere Bildränder. Daher gehört ein Bereich, der eine signifikante Konturenmenge an den Bildrändern aufweist, tendenziell zu dem Hintergrund. Erfindungsgemäß werden zwei Maße verwendet, um die Randlage eines Bereichs zu kennzeichnen, nämlich den Prozentsatz seines Umfangs entlang des Bildrands oder der Bildränder und die Zahl der Bildränder, die einen Bereich schneidet.
  • Wenn die Ausrichtung unbekannt ist, platziert ein Randlagenmerkmal jeden Bereich in eine von sechs Kategorien, die anhand der Zahl und Konfiguration der Bildränder bestimmt sind, mit denen der Bereich „in Kontakt" ist. Ein Bereich ist mit einem Rand "in Kontakt", wenn mindestens ein Pixel in dem Bereich in eine festgelegte Entfernung zum Bildrand fällt. Die Entfernung wird als Teil des kürzeren Maßes des Bildes ausgedrückt. Die sechs Kategorien für Randlage_1 sind {keine, ein Rand, zwei berührende Ränder, zwei gegenüberliegende Ränder, drei, vier}.
  • Die Kenntnis der Bildausrichtung ermöglicht eine Neudefinition des Randlagenmerkmals zur Berücksichtigung der Tatsache, dass Bereiche, die in Kontakt mit dem oberen Rand sind, mit höherer Wahrscheinlichkeit dem Hintergrund zuzurechnen sind als Bereiche, die mit dem unteren Rand in Kontakt sind. Dadurch ergeben sich 12 Kategorien für Randlage_1, wie anhand der Zahl und der Konfiguration der Bildränder bestimmt, mit denen der Bereich „in Kontakt" ist, wobei die zuvor erläuterte Definition für „in Kontakt" gilt. Die vier Ränder des Bildes sind mit „oben", „unten", „links" und „rechts" markiert, und zwar nach ihrer Lage, wenn das Bild so ausgerichtet ist, dass die Motive in der Szene aufrecht stehen.
  • Ein zweites Randlagenmerkmal Randlage_2 ist definiert, um zu bezeichnen, welcher Teil des Bereichsumfangs auf dem Bildrand liegt. Weil ein derartiger Teil den Wert von 0,5 nicht überschreiten kann, dient folgende Definition dazu, den Merkmalswert auf [0, 1] zu normalisieren.
  • Figure 00100001
  • Ein weiteres Strukturmerkmal kann die Tiefe sein. Im Allgemeinen ist die Tiefe aller Motive in der Szene nicht verfügbar. Falls dieses Merkmal jedoch verfügbar ist, beispielsweise durch einen Entfernungsmesser, ist es nützlich, um das Hauptmotiv vom Hintergrund zu unterscheiden, weil das Hauptmotiv tendenziell im Vordergrund und näher zum Betrachter hin angeordnet ist. Allerdings ist zu beachten, dass Motive im Vordergrund nicht unbedingt das Hauptmotiv sein müssen.
  • Ein semantisches Merkmal ist die Haut. Nach einer Untersuchung einer fotografischen Bilddatenbank mit über 2.000 Bildern umfassen mehr als 70% der fotografischen Bilder Menschen, wobei etwa die gleiche Anzahl Bilder deutlich erkennbare Gesichter umfasst. Menschen sind in Fotografien das wichtigste Motiv überhaupt.
  • Der aktuelle Hauterkennungsalgorithmus nutzt die Farbbildsegmentierung und eine vorbestimmte Hautverteilung in einem bestimmten Farbraum P(Haut | Chrominanz). Bekanntermaßen liegt der Hauptunterschied der jeweiligen Herkunft (Rasse) in der Luminanzrichtung, wobei die Wirkung der Beleuchtungsquellen ebenfalls hauptsächlich die Luminanzrichtung betrifft. Die Klassifizierung des Hautbereichs beruht auf einer maximalen Wahrscheinlichkeit gemäß der mittleren Farbe eines segmentierten Bereichs. Die Wahrscheinlichkeiten werden über eine Sigmoidwahrscheinlichkeitsfunktion auf eine Wahrscheinlichkeitsausgabe abgebildet.
  • Die Aufgabe der Hauptmotivermittlung besteht somit darin, die Wahrscheinlichkeit eines gegebenen Bereichs in dem Bild als Hauptmotiv zu ermitteln, und zwar beruhend auf der A-posteriori-Wahrscheinlichkeit P(MSD | Merkmal). Es sei darauf hingewiesen, dass für jeden Bereich in dem Bild ein Bayessches Netz aktiv ist. Mit anderen Worten wird die Begründung pro Bereich durchgeführt (anstatt pro Bild).
  • Die Ausgabe der MSD-Operation ist eine Liste von segmentierten Bereichen in absteigender Reihenfolge ihrer Wahrscheinlichkeit als potenzielle Hauptmotive für eine generische oder spezifische Anwendung. Diese Liste lässt sich ohne weiteres in eine Tabelle umwandeln, in der die Helligkeit eines Bereichs proportional zur Hauptmotivwahrscheinlichkeit des Bereichs ist. Diese Tabelle wird daher als Hauptmotiv-Wahrscheinlichkeitstabelle bezeichnet. Diese Wahrscheinlichkeitstabelle ist mehr als eine binäre Tabelle, die nur die Lage des ermittelten Hauptmotivs angibt. Jedem Bereich ist auch die zugehörige Wahrscheinlichkeit zugeordnet, so dass die Bereiche mit hohen Werten den Bereichen entsprechen, die mit hoher Wahrscheinlichkeit Teil des Hauptmotivs sind.
  • In gewissem Maße gibt die Wahrscheinlichkeitstabelle die inhärente Unbestimmtheit von Menschen zur Durchführung einer derartigen Aufgabe, wie die Hauptmotivermittlung, wieder, weil verschiedene Beobachter möglicherweise bei bestimmten Motiven hinsichtlich ihrer Bedeutung als Hauptmotiv unterschiedlicher Meinung sind, während sie bei anderen Motiven darin übereinstimmen. Eine binäre Entscheidung lässt sich jedoch – falls gewünscht – ohne weiteres mithilfe eines geeigneten Schwellenwerts in der Wahrscheinlichkeitstabelle erzielen. Die Wahrscheinlichkeitsinformation kann zudem für nachfolgende Anwendungen sehr nützlich sein. Beispielsweise können verschiedenen Bereichen (Motivangelegenheiten) verschiedene Gewichtungsfaktoren zugewiesen werden, um die Betonung auf Motiv oder Hintergrund zu bestimmen.
  • Um Motiv und Hintergrund zu bestimmen, kann die vorliegende Erfindung auch die Hauptmotivwahrscheinlichkeitstabelle anstelle einer binären Version der Tabelle nutzen, um eine suboptimale und visuell falsche Entscheidung über Hauptmotiv und Hintergrund zu vermeiden. Eine binäre Entscheidung darüber, was einzubeziehen und was nicht einzubeziehen ist, lässt wenig Raum für Fehler, wenn sie erst einmal getroffen ist. Wenn beispielsweise Teilen des Hauptmotivs nicht die höchste Wahrscheinlichkeit zugeordnet wird, ist es bei einem graduellen (im Unterschied zu einem binären) Betonungsprozess wahrscheinlich, dass sie eine gewisse Bedeutung behalten. Wenn – mit anderen Worten – eine unerwünschte binäre Entscheidung darüber, was einzubeziehen oder auszuschließen ist, getroffen ist, bleibt keine Möglichkeit, den Fehler zu korrigieren. Dementsprechend wird die Genauigkeit des Abrufs von der Robustheit des automatischen Hauptmotivermittlungsverfahrens und dem für die binäre Entscheidung verwendeten Schwellenwert abhängig. Bei einer kontinuierlich bewerteten Hauptmotivwahrscheinlichkeitstabelle wird jedem Bereich oder jedem Objekt eine Wahrscheinlichkeit, betont oder nicht betont zu werden, zugewiesen. Darüber hinaus werden sekundäre Hauptmotive durch intermediäre Wahrscheinlichkeitswerte in der Hauptmotivwahrscheinlichkeitstabelle angezeigt und können in einer absteigenden Reihenfolge ihrer Wahrscheinlichkeitswerte betont werden, während das Hauptmotiv mit den höchsten Wahrscheinlichkeitswerten am stärksten betont wird.
  • Nachdem die Hauptmotivwahrscheinlichkeitstabelle erstellt worden ist, kann eine mehrstufige Wahrscheinlichkeitstabelle von der Hauptmotivwahrscheinlichkeitstabelle mit kontinuierlich bewerteten Motiven anhand einer mehrstufigen Schwellenwert- oder Clusterbildung abgeleitet werden. Dieser Vorgang erzeugt eine schrittweise bewertete Wahrscheinlichkeitstabelle, die einen graduellen, aber diskreten Wahrscheinlichkeitsübergang vom definitiven Hauptmotiv zum wahrscheinlichsten Hauptmotiv kennzeichnet, und zwar bis hinab zum defi nitiven Hintergrund. Fachleute werden erkennen, dass innerhalb des Geltungsbereichs der Erfindung die Anzahl der diskreten Wahrscheinlichkeitsstufen (N) eine beliebige ganze Zahl zwischen 2 (binäre Entscheidung) und der ursprünglichen Auflösung der kontinuierlichen Wahrscheinlichkeitstabelle sein kann. Nachdem die mehrstufige Wahrscheinlichkeitstabelle erstellt worden ist, werden Bildmerkmale für jede der N diskreten Stufen der Wahrscheinlichkeitstabelle berechnet, um eine Bildähnlichkeitsberechnung auf der Grundlage von Hauptmotivbereichen oder Hintergrundbereichen des Bildes zu ermöglichen. Zusammen mit dem Originalbild dient jede Stufe der Wahrscheinlichkeitstabelle als eine Maske, die nur die Pixel auswählt, die zu der jeweiligen Wahrscheinlichkeitsstufe des Originalbildes gehören, und es werden wahrnehmbar signifikante Merkmale für die Pixel berechnet, die zu der jeweiligen Stufe zählen. Ein für eine bestimmte Wahrscheinlichkeitsstufe maskiertes Bild wird daher als „Wahrscheinlichkeitsstufenbild" bezeichnet. Erfindungsgemäß sind Farbe und Textur die bevorzugten Merkmale für die Darstellung jeder Wahrscheinlichkeitsstufe eines Bildes. Fachleute werden erkennen, dass die zusätzlichen Merkmale, wie Form, verwendbar sind, ohne vom Umfang und Geltungsbereich dieser Erfindung abzuweichen.
  • Erfindungsgemäß umfasst das Verfahren die Schritte des automatischen Bereitstellens wahrnehmbar signifikanter Merkmale des Hauptmotivs oder des Hintergrunds eines ersten Bildes; das automatische Bereitstellen wahrnehmbar signifikanter Merkmale des Hauptmotivs oder des Hintergrunds eines zweiten Bildes; das automatische Vergleichen der wahrnehmbar signifikanten Merkmale des Hauptmotivs oder des Hintergrunds des ersten Bildes mit dem Hauptmotiv oder dem Hintergrund des zweiten Bildes und das Bereitstellen einer Ausgabe in Abhängigkeit davon.
  • In der exemplarischen Implementierung werden die Merkmale mithilfe einer Anzahl von Wahrscheinlichkeitsstufen bereitgestellt, wobei die Zahl der Wahrscheinlichkeitsstufen vorzugsweise größer als zwei ist. In dem exemplarischen Ausführungsbeispiel umfasst der Schritt des automatischen Bereitstellens von wahrnehmbar signifikanten Merkmalen des Hauptmotivs oder des Hintergrunds des ersten Bildes die Schritte des automatischen Identifizierens des Hauptmotivs oder des Hintergrunds des ersten Bildes und den Schritt des Identifizierens der wahrnehmbar signifikanten Merkmale des Hauptmotivs oder des Hintergrunds des ersten Bildes. Weiterhin umfasst der Schritt des automatischen Bereitstellens von wahrnehmbar signifikanten Merkmalen des Hauptmotivs oder des Hintergrunds des zweiten Bildes die Schritte des automatischen Identifizierens des Hauptmotivs oder des Hintergrunds des zweiten Bildes und den Schritt des Identifizierens der wahrnehmbar signifikanten Merkmale des Hauptmotivs oder des Hintergrunds des zweiten Bildes.
  • Die wahrnehmbar signifikanten Merkmale können Farbe, Textur und/oder Form umfassen. In dem bevorzugten Ausführungsbeispiel wird das Hauptmotiv durch eine kontinuierlich bewertete Wahrscheinlichkeitstabelle bezeichnet. Die Wahrscheinlichkeitswerte des Hauptmotivs werden durch Segmentieren des Bildes in Bereiche aus homogener Farbe und Textur bestimmt, wobei mindestens ein Strukturmerkmal und mindestens ein semantisches Merkmal für jeden Bereich berechnet werden, und durch Berechnen eines Wahrscheinlichkeitswerts für alle Pixel in dem Bereich unter Verwendung eines Bayesschen Netzes, um die Merkmale zu kombinieren.
  • In einer illustrativen Anwendung ist das erfindungsgemäße Verfahren in einem Bildabrufsystem implementiert. In dieser Implementierung speichert das erfindungsgemäße Verfahren wahrnehmbar signifikante Merkmale des Hauptmotivs oder des Hintergrunds einer Vielzahl von ersten Bildern in einer Datenbank, um den Abruf eines Zielbildes in Ansprechen auf eine Eingabe oder ein Abfragebild zu ermöglichen. Die Eingabebilder können mithilfe eines Speichermediums, eines Bildscanners oder anderer geeigneter Verfahren bereitgestellt werden. Merkmale, die jedem der Vielzahl von gespeicherten Bildern entsprechen, werden automatisch nacheinander mit ähnlichen Merkmalen des Abfragebildes verglichen. Das erfindungsgemäße Verfahren kann in einem PC oder in einem anderen geeigneten System implementiert werden. Wie bereits vorstehend detailliert erläutert, stellt die vorliegende Erfindung ein automatisches System und Verfahren zur Steuerung der Merkmalsextraktion, Darstellung und merkmalsgestützten Ähnlichkeits-Abrufstrategien eines inhaltsgestützten Bildarchivierungs- und Bildabrufsystems auf Basis einer Analyse des Hauptmotivs und des Hintergrunds bereit, abgeleitet von einer kontinuierlich bewerteten Hauptmotiv-Wahrscheinlichkeitstabelle.
  • 2 zeigt ein vereinfachtes Blockdiagramm eines allgemeinen Schemas zur Bildmerkmalsextraktion unter Nutzung einer Komponente der Hauptmotivermittlung als Mittel zur Unterscheidung von Motiv und Hintergrund, um eine Datenbank von wahrnehmbar signifikanten Merkmalen erfindungsgemäß zu erstellen. Das System 10 umfasst eine Hauptmotivermittlungseinheit 20, die eine Reihe von Eingabebildern 12 und eine entsprechende Wahrschein lichkeitstabelle 22 dafür empfängt. Eine Bildmerkmalsextraktionseinheit 30 empfängt jedes Eingabebild und jedes zugehörige Wahrscheinlichkeitsstufenbild und gibt diesbezüglich wahrnehmbar signifikante Merkmale in eine Datenbank 40 aus.
  • Der bevorzugte Ansatz zur Identifizierung wahrnehmbar signifikanter Farben eines Wahrscheinlichkeitsstufenbildes beruht auf der Annahme, dass signifikant bemessene, kohärent gefärbte Bereiche wahrnehmbar signifikant sind. Farben von signifikant bemessenen, kohärent gefärbten Bereichen gelten daher als wahrnehmbar signifikante Farben.
  • Das bevorzugte Ausführungsbeispiel bietet zwei verschiedene Verfahren zur Identifizierung wahrnehmbar signifikanter Farben beliebiger Wahrscheinlichkeitsstufenbilder an. Fachleute werden erkennen, dass alternative Farbmerkmale verwendbar sind, ohne vom Umfang und Geltungsbereich dieser Erfindung abzuweichen. Eines dieser Verfahren wurde zur Einrichtung der Bilddatenbank 40 ausgewählt. 3 zeigt die wichtigsten Schritte dieses ersten Ansatzes.
  • 3 ist ein Ablaufdiagramm zur Darstellung eines Ausführungsbeispiels für ein Verfahren 50 zur erfindungsgemäßen Identifizierung der wahrnehmbar signifikanten Farben eines Wahrscheinlichkeitsstufenbildes. Wie in 3 gezeigt, wird für jedes Wahrscheinlichkeitsstufenbild zunächst in Schritt 52 dessen kohärentes Farbhistogramm berechnet. Ein kohärentes Farbhistogramm eines Bildes ist eine Funktion der Form H(c) = Zahl der Pixel der Farbe c, die zu kohärent gefärbten Bereichen gehören. Hier ist c eine gültige Farbe in dem Dynamikbereich der Pixel auf der aktuellen Wahrscheinlichkeitsstufe. Ein Pixel zählt dann als einem kohärent gefärbten Bereich zugehörig, wenn dessen Farbe gleich oder ähnlich ist wie die Farben einer vorbestimmten Anzahl benachbarter Pixel. Die vorliegende Implementierung hat zwei Definitionen von Kohärenz: (i) ein Minimum von 2 übereinstimmenden oder ähnlichen Nachbarn und (ii) alle Nachbarn stimmen überein oder sind ähnlich. Die gleiche Kohärenzdefinition muss zur Analyse aller Bilder in der Bildarchivierungs- und Abrufphase verwendet werden. Zwei Farben gelten als gleich, wenn alle entsprechenden Kanalwerte gleich sind. Zwei Farben c1 und c2 gelten als ähnlich, wenn deren Differenz diff(c1, c2) kleiner als ein benutzerseitig angegebener Schwellenwert CT ist. Der bevorzugte Wert von CT liegt im Bereich von 15% bis 20% des größtmöglichen Wertes von diff(c1, c2). Mehrere verschiedene Farbdifferenzberechnungsverfahren sind möglich. In der vorliegenden Erfindung wird eines der folgenden drei Verfahren zum Vergleichen von zwei L-Kanal-Farben zum Zeitpunkt der Systeminitialisierung gewählt:
    • (i) Farbe cx und cy gelten als ähnlich, wenn |c i / x – c i / y| < C i / T, wobei c i / k den Wert des i-ten Kanals von Farbe ck bezeichnet, und wobei C i / T den vorgewählten Schwellenwert für die Differenz der i-ten Kanalwerte bezeichnet.
    • (ii) Farbe cx und cy gelten als ähnlich, wenn Σi=1,Lwi·(c i / x – c i / y)2 < CT, wobei c i / k den Wert des i-ten Kanals von Farbe ck bezeichnet, und wobei wi für das Gewicht des i-ten Kanals steht und CT den vorgewählten Schwellenwert bezeichnet.
    • (iii) Farbe cx und cy gelten als ähnlich, wenn Σi=1,Lwi·|(c i / x – c i / y)| < CT, wobei c i / k den Wert des i-ten Kanals von Farbe ck bezeichnet, wi für das Gewicht des i-ten Kanals steht und CT den vorgewählten Schwellenwert bezeichnet.
  • In Schritt 54 von 3 wird das kohärente Farbhistogramm analysiert, um die wahrnehmbar signifikanten Farben zu bezeichnen. Eine Farbe k gilt als wahrnehmbar signifikante Farbe, wenn H(k) > T. Hier steht T für einen Schwellenwert. In der vorliegenden Implementierung ist T = 0,5% der Gesamtzahl von Pixeln in dem aktuellen Wahrscheinlichkeitsstufenbild.
  • Der nächste Schritt 56 stellt die Eigenschaften des aktuellen Wahrscheinlichkeitsstufenbildes in Bezug auf die wahrnehmbar signifikanten Merkmale dar. Die Farbmerkmale des Wahrscheinlichkeitsstufenbildes I werden von einem Vektor der Form IC = {N, Z, <Ci, Si>}, 0 < i < N – 1 dargestellt. Hier steht N für die Zahl der wahrnehmbar signifikanten Farben in dem Wahrscheinlichkeitsstufenbild I, Z = ΣSi, Ci steht für den Farbwert der iten wahrnehmbar signifikanten Farbe des Wahrscheinlichkeitsstufenbildes I, und Si steht für das Verhältnis von H(Ci) zur Gesamtzahl der Pixel in dem Wahrscheinlichkeitsstufenbild I.
  • 4 zeigt die wichtigsten Schritte des zweiten Verfahrens zur Identifizierung wahrnehmbar signifikanter Farben eines Bildes.
  • 4 zeigt ein Ablaufdiagramm zur Darstellung eines alternativen Ausführungsbeispiels für ein Verfahren zur erfindungsgemäßen Identifizierung der wahrnehmbar signifikanten Farben eines Wahrscheinlichkeitsstufenbildes. Das Verfahren 60 ist eine Erweiterung des ersten Verfahrens 50 aus 3. In diesem Fall werden die beiden ersten Schritte 52 und 54 des ersten Verfahrens 50 durchgeführt, um wahrnehmbar signifikante Farben zu ermitteln. Der so ermittelte Satz der wahrnehmbar signifikanten Farben gilt als Ausgangssatz von wahrnehmbar signifikanten Farben und wird umdefiniert, um den Satz der maßgeblich wahrnehmbar signifikanten Farben zu erhalten. Der Verfeinerungsprozess beginnt mit Schritt 62 zum Auffinden verbundener Komponenten oder Bereiche, die ausschließlich aus den Pixeln der Farben zusammengesetzt sind, die zu dem Ausgangssatz der wahrnehmbar signifikanten Farben zählen. Dies wird erreicht, indem das Wahrscheinlichkeitsstufenbild einer Analyse auf verbundene Komponenten unterzogen wird, wobei nur die Pixel der wahrnehmbar signifikanten Farben berücksichtigt werden, während die übrigen außer Acht gelassen werden. Alternativ hierzu können die Ergebnisse der Analyse auf verbundene Komponenten aus der Farbsegmentierung verwendet werden, die während der Hauptmotivermittlung durchgeführt worden ist, wobei ein Schritt hinzugefügt wird, bei dem die verbundenen Bereiche aussortiert werden, die durch zuvor bestimmte, nicht wahrnehmbar signifikante Farben gebildet werden. Zwei benachbarte Pixel (4 oder 8 Nachbarn) mit wahrnehmbar signifikanten Farben (d.h. Farben in dem Ausgangssatz der wahrnehmbar signifikanten Farben) gelten nur als verbunden, wenn es sich um übereinstimmende/ähnliche Farben handelt.
  • In Schritt 64 werden die so erhaltenen Bereiche analysiert, um den Satz der maßgeblich wahrnehmbar signifikanten Farben zu bestimmen. Eine verbundene Komponente, die größer als ein vorbestimmter Schwellenwert Ts ist, gilt als maßgeblich wahrnehmbar signifikantes Segment. In der vorliegenden Implementierung ist Ts = 0,25% der Gesamtzahl von Pixeln in dem aktuellen Wahrscheinlichkeitsstufenbild. Farben, die zu maßgeblich wahrnehmbar signifikanten Segmenten gehören, bilden den Satz der wahrnehmbar signifikanten Farben für die Bilddarstellung.
  • Der letzte Schritt 66 stellt die Eigenschaften des aktuellen Wahrscheinlichkeitsstufenbildes in Bezug auf dessen wahrnehmbar signifikanten Farben dar. Es sei darauf hingewiesen, dass dieser letzte Satz von wahrnehmbar signifikanten Farben eine Untermenge des Ausgangssatzes von wahrnehmbar signifikanten Farben ist.
  • Einschlägige Fachleute werden erkennen, dass mehrere Abwandlungen der beiden vorstehend genannten farbgestützten Bilddarstellungen innerhalb des Umfangs und Geltungsbereichs der Erfindung möglich sind. Beispielsweise ist eine Kombination der beiden Darstellungen eine direkte Erweiterung, wobei die Darstellung des Verfahrens 1 erweitert wird, indem jede wahrnehmbar signifikante Farbe nach einem Typ qualifiziert wird, der angibt, ob diese Farbe zu einem maßgeblich wahrnehmbar signifikanten Segment gehört oder nicht.
  • Erfindungsgemäß erfolgt die auf einem Texturmerkmal gestützte Darstellung eines Bildes in Bezug auf wahrnehmbar signifikante Texturen, die in dem Bild vorhanden sind. Der bevorzugte Ansatz zur Identifizierung wahrnehmbar signifikanter Texturen eines Wahrscheinlichkeitsstufenbildes beruht auf der Annahme, dass jede wahrnehmbar signifikante Textur aus einer Vielzahl von Wiederholungen desselben Farbübergangs oder derselben Farbübergänge zusammengesetzt ist. Durch Identifizierung der häufig auftretenden Farbübergänge und Analysieren ihrer Textureigenschaften können wahrnehmbar signifikante Texturen extrahiert und dargestellt werden. Das bevorzugte Ausführungsbeispiel für die Identifizierung von wahrnehmbar signifikanten Texturen eines Wahrscheinlichkeitsstufenbildes ist in 5 dargestellt. Fachleute werden erkennen, dass alternative Texturmerkmale verwendbar sind, ohne vom Umfang und Geltungsbereich dieser Erfindung abzuweichen.
  • 5 zeigt ein Ablaufdiagramm eines Verfahrens zur erfindungsgemäßen Identifizierung wahrnehmbar signifikanter Texturen. Der erste Schritt 72 in dem Prozess 70 besteht darin, alle Farbübergänge zu ermitteln, die in dem aktuellen Wahrscheinlichkeitsstufenbild vorhanden sind. Ein Farbübergang tritt zwischen einem aktuellen Pixel (c) und seinem vorherigen Pixel (p) auf, wenn eine Änderung des Farbwerts dist(c, p) größer ist als ein vorbestimmter Schwellenwert th. Der bevorzugte Wert von th liegt im Bereich von 15% bis 20% des größtmöglichen Wertes von dist(c, p). Ein Pixel, bei dem ein Farbübergang auftritt, wird als Farbübergangspixel bezeichnet. In dem dargestellten Ausführungsbeispiel ist eines der folgenden beiden Verfahren wählbar, um zwei L-Kanalfarben zu vergleichen und das Auftreten oder die Ausprägung einer Änderung des Farbwerts, also eines Farbübergangs, zu ermitteln:
    • (i) Das aktuelle Pixel wird als Farbübergangspixel identifiziert, wenn: |c.ch0 – p.ch0 ≥ th.ch0 oder |c.ch1 – p.ch1| ≥ th.ch1 ... oder |c.chi – p.chi| ≥ th.chi 0 ≤ i ≤ L [3]wobei c.chi für den i-ten Farbkanalwert des aktuellen Pixels, p.chi für den i-ten Farbkanalwert des vorherigen Pixels und th.chi für die vordefinierte Differenzschwelle für den i-ten Farbkanal steht.
    • (ii) Das aktuelle Pixel wird als Farbübergangspixel identifiziert, wenn:
      Figure 00190001
      wobei c.chi für den i-ten Farbkanalwert des aktuellen Pixels, p.chi für den i-ten Farbkanalwert des vorherigen Pixels und th für die vordefinierte Farbdifferenzschwelle steht.
  • Einschlägige Fachleute werden erkennen, dass das Konzept des Farbübergangs in monochromen Bildern als ein Graustufen- oder Helligkeitsübergang definiert werden kann. Sie würden zudem erkennen, dass innerhalb des Geltungsbereichs dieser Erfindung eine andere Farbdifferenzmetrik verwendbar ist, um das Vorhandensein eines Farbübergangs zu ermitteln.
  • Erfindungsgemäß werden die Wahrscheinlichkeitsstufenbilder horizontal und vertikal abgetastet, um alle Farbübergangspixel nach einem der zuvor genannten Verfahren zu identifizieren. Jedes Farbübergangspixel signalisiert einen Farbübergang, und jeder Farbübergang ist durch die beiden Farben (c1, c2) dargestellt, die den vorherigen und den aktuellen Pixelfarbwerten entsprechen, die den Farbübergang bilden.
  • Der zweite Schritt 74 in dem Prozess 70 aus 5 besteht darin, alle häufig auftretenden Farbübergänge zu identifizieren. Zwei bemaßte Farbübergangshistogramme, bei denen c1 und c2 die beiden Dimensionen bilden, werden konstruiert, um die Frequenz der in dem vorherigen Schritt ermittelten diversen Farbübergänge aufzuzeichnen. Ein globales Farbübergangshistogramm ist aus allen in dem Bild gefundenen Farbübergängen konstruiert und besetzt.
  • Durch Auffinden sämtlicher Spitzen in dem Farbübergangshistogramm, die ebenfalls einen vorbestimmten Mindesthäufigkeitsschwellenwert von Ausprägungen überschreiten, identifiziert die häufig auftretenden Farbübergänge. Die bevorzugte Mindesthäufigkeitsschwelle zur Identifizierung häufig auftretender Farbübergänge für das globale Farbübergangshistogramm ist 0,25% der Gesamtzahl von Pixeln in dem aktuellen Wahrscheinlichkeitsstufenbild.
  • Der dritte Schritt 76 in dem Prozess 70 ist eine Textureigenschaftenanalyse von häufig auftretenden Farbübergängen zur Darstellung wahrnehmbar signifikanter Texturen. Für jeden häufig auftretenden Farbübergang wird jede Ausprägung dieses bestimmten Farbübergangs in dem aktuellen Wahrscheinlichkeitsstufenbild aufgefunden, und es wird ein Maß und ein Gradientenwert berechnet. In dem aktuellen Ausführungsbeispiel wird das Maß als Distanz in Pixeln zwischen der Ausprägung von Farbe c1 und Farbe c2 berechnet. Der Gradient wird als tan–1(gy/gx) berechnet, wobei gy und gx die vertikalen bzw. horizontalen Kanteninformationen an dem Farbübergang sind, wie mithilfe des Sobel-Gradientenoperators berechnet. Der Sobel-Gradientenoperator ist in der Technik bekannt.
  • Es sei darauf hingewiesen, dass auch andere Techniken zur Berechnung der Maß- und Gradientenwerte möglich sind, ohne vom Umfang und Geltungsbereich der Erfindung abzuweichen.
  • Die berechneten Maß- und Gradientenwerte für jede Ausprägung dienen dazu, ein Maß-/Gradienten-Histogramm zu erstellen. Nachdem sämtliche Ausprägungen berücksichtigt worden sind, wird das Maß-/Gradienten-Histogramm benutzt, um die Textureigenschaften der wahrnehmbar signifikanten Textur zu analysieren. Für Zufallstexturen ist das Maß-/Gradienten-Histogramm zufällig verteilt, während sich für strukturierte Texturen ein deutlicher Modus in Bezug auf Maß, Gradient oder beidem im Maß-/Gradienten-Histogramm ermitteln lässt. Für einen Farbübergang, der einer Zufallstextur entspricht, wird das Maß-/Gradienten-Histogramm benutzt, um den mittleren Maß-/Gradienten-Vektor und die Kovarianzmatrix für Maß und Gradient zu berechnen. Für einen Farbübergang, der einer strukturierten Textur entspricht, wird der entsprechende Histogrammmodus verwendet, um den mittleren Maß-/Gradienten-Vektor und die Kovarianzmatrix für Maß und Gradient zu berechnen. Die Eigenschaften werden zur Darstellung einer wahrnehmbar signifikanten Textur benutzt.
  • Der letzte Schritt 78 stellt das Wahrscheinlichkeitsstufenbild in Bezug auf dessen wahrnehmbar signifikante Texturen dar. Ein Wahrscheinlichkeitsstufenbild I wird durch einen Vektor der Form IT = {N, Z, < C1 i, C2 i, Pi, MI, Vi, Si,>}, 0 < i < N – 1 dargestellt. Hier steht N für die Zahl maßgeblich wahrnehmbar signifikanter Texturen im Wahrscheinlichkeitsstufenbild I; Z = ΣSi; C1 i und C2 i stehen für den Farbwert des häufig auftretenden Farbübergangs, entsprechend der i-ten wahrnehmbar signifikanten Textur; Pi steht für den Strukturtyp der i-ten wahrnehmbar signifikanten Textur und kann einen der folgenden möglichen Werte annehmen: zufällig, maßstrukturiert, gradientenstrukturiert oder maß-gradienten-strukturiert; MI und Vi sind der mittlere Maß-Gradienten-Vektor bzw. die Maß-Gradienten-Kovarianzmatrix der i-ten wahrnehmbar signifikanten Textur in dem Satz, und Si steht für die gesamte Flächendeckung der i-ten wahrnehmbar signifikanten Textur, wie durch Kumulieren aller Maßwerte über alle Ausprägungen des häufig auftretenden Farbübergangs berechnet, die der i-ten wahrnehmbar signifikanten Textur entsprechen. Einschlägige Fachleute werden erkennen, dass auch andere Textureigenschaften oder eine Untermenge/LTbermenge von IT verwendbar ist, um eine wahrnehmbar signifikante Textur darzustellen, ohne vom Umfang und Geltungsbereich der Erfindung abzuweichen.
  • Die wahrnehmbar signifikanten Merkmale für jedes der Wahrscheinlichkeitsstufenbilder werden somit berechnet und in Vektorform dargestellt. Jedes Bild wird durch N Sätze aus Farb- und Texturmerkmalsdarstellungen vollständig dargestellt, die N Wahrscheinlichkeitsstufen entsprechen, wobei diese Darstellungen zusammen mit den Bildern in der Datenbank 40 für die spätere Abfrage und den späteren Abruf gespeichert werden. Einschlägige Fachleute werden erkennen, dass andere Merkmale, wie Struktur, Zusammensetzung und Form ebenfalls berechnet und zur Darstellung der Wahrscheinlichkeitsstufenbilder verwendet werden können, ohne vom Umfang und Geltungsbereich der Erfindung abzuweichen.
  • Wie in 2 gezeigt, besteht der nächste Schritt nach dem Erzeugen der auf wahrnehmbar signifikanten Merkmalen gestützten Bildmerkmalsdarstellung für jede Wahrscheinlichkeitsstufe darin, das Digitalbild und die zugehörige Darstellung in die entsprechende Datenbank 40 und die entsprechenden Indexstrukturen einzufügen. Einschlägige Fachleute werden erkennen, dass die übergeordnete Datenbankorganisation von dem zugrundeliegenden Datenbank-/Dateiverwaltungssystem abhängig ist. In der vorliegenden Implementierung befinden sich die Digitalbilder in der Bilddatenbank. Die Bildmerkmalsdarstellungen für jedes Wahr scheinlichkeitsstufenbild werden ebenfalls in der Datenbank gespeichert, ebenso wie die Indizierungsstrukturen. Zusätzlich zu den wahrnehmbar signifikanten Merkmalsdarstellungen enthält eine Bildmerkmalsdarstellung auch den Bildbezeichner/-locator, der als Referenz auf die Digitalbilddatei dient. Der Name oder die Kennung des Bildes dienen als Locator von dessen Darstellung.
  • Einschlägige Fachleute werden erkennen, dass die Wahl der Indexstruktur zur Organisation einer Datenbank von den durch die Indexstruktur durchzuführenden gewünschten Funktionen abhängt. Die in der aktuellen Implementierung benötigte Funktionalität ermöglicht die Auswahl und den Rückgriff auf Bilder, die einem gegebenen Abfragebild ähnlich sind. Unter der Voraussetzung, dass ein wahrnehmbar signifikantes Merkmal f eines gegebenen Wahrscheinlichkeitsstufenbildes vorhanden ist, liefert die Indexstruktur die Liste der Zeiger/Refe-renzen auf alle Bilder in der Datenbank, die das Merkmal f in dem entsprechenden Wahrscheinlichkeitsstufenbild enthalten, um diese Funktionalität zu ermöglichen.
  • In dem bevorzugten Ausführungsbeispiel wird für farbgestützte Suchläufe ein Index auf der Basis der wahrnehmbar signifikanten Farbe erstellt. Einen gegebenen Farbwert auf einer bestimmten Wahrscheinlichkeitsstufe vorausgesetzt, liefert der Index also eine Liste von Bildern, die diese Farbe als eine wahrnehmbar signifikante Farbe auf dieser speziellen Wahrscheinlichkeitsstufe enthält. Für texturgestützte Suchläufe wird einer oder werden beide der folgenden Indizes erstellt: (a) ein Index, der einem Farbübergang auf einer bestimmten Wahrscheinlichkeitsstufe eine Liste von Bildern zuordnet, die wahrnehmbar signifikante Texturen enthalten, die aus diesem Farbübergang auf dieser speziellen Wahrscheinlichkeitsstufe zusammengesetzt sind; und (b) einen Index, der einem Paar aus <Farbübergang, Texturtyp> auf einer bestimmten Wahrscheinlichkeitsstufe eine Liste von Bildern zuordnet, die wahrnehmbar signifikante Texturen des Typs enthalten, der aus diesem Farbübergang auf dieser speziellen Wahrscheinlichkeitsstufe zusammengesetzt ist. Einschlägige Fachleute werden erkennen, dass auch andere Indexstrukturen innerhalb des Umfangs und Geltungsbereichs der Erfindung implementierbar sind.
  • Die wesentlichen Schritte des auf dem Beispielbild basierten Ähnlichkeitsbild-Abruf-/Auswahlprozesses aus der Bildabfrage- und Rückgriffphase sind in 6 dargestellt.
  • 6 u. 7 zeigen vereinfachte Blockdiagramme eines allgemeinen Schemas für den erfindungsgemäßen Bildrückabruf. 7 ist im Wesentlichen mit 6 identisch, ausgenommen der zusätzlichen Details in Bezug auf die Datenbank 90. In der Merkmalsextraktionseinheit 86 wird eine gewünschte Darstellung in Bezug auf ein gegebenes Abfrage-Beispielbild entweder berechnet oder ermittelt. Wenn das Abfrage-Beispielbild aus der aktuellen Bilddatenbank ausgewählt wird, stammt also auch dessen Darstellung aus der Datenbank. Wenn das Abfrage-Beispielbild ein neues Bild ist, wird zunächst dessen Wahrscheinlichkeitsstufe berechnet, dessen mehrstufige Wahrscheinlichkeitstabelle erstellt und die Merkmalsdarstellungen, wie zuvor für jedes der Wahrscheinlichkeitsstufenbilder beschrieben, werden anschließend berechnet. Dann werden die Darstellungen der Datenbankbilder in einer Such- und Vergleichseinheit 90 mit der Darstellung des Abfragebildes verglichen, um ein Ähnlichkeitsmaß zu ermitteln. Abschließend werden die Datenbankbilder nach der berechneten Ähnlichkeit mit dem Abfragebild sortiert.
  • Um die Ähnlichkeit zwischen einem Abfragebild und einem Datenbankbild zu ermitteln, wird zunächst die farbgestützte Ähnlichkeit, die texturgestützte Ähnlichkeit oder eine Kombination aus beiden für jedes der N entsprechenden Wahrscheinlichkeitsstufen-Abfragebilder und Wahrscheinlichkeitsstufen-Datenbankbilder berechnet. Für die farbgestützte Ähnlichkeit sind die bevorzugten Optionen für ein Ähnlichkeitsmaß:
    Figure 00230001
    wobei K für die Zahl der übereinstimmenden Farben des Wahrscheinlichkeitsstufen-Abfragebildes q und des Wahrscheinlichkeitsstufen-Datenbankbildes d steht; S q / i und S d / i stehen für die Größenattributwerte für die i-te übereinstimmende Farbe der Wahrscheinlichkeitsstufenbilder q bzw. d; diff steht für eine normalisierte Distanzfunktion des Typs Lx|.| für einen gegebenen Wert x; und Ωq und Ωd stehen für den Satz aus Größenattributwerten der entsprechenden wahrnehmbar signifikanten Farben der Wahrscheinlichkeitsstufenbilder q und d. Für eine texturgestützte Ähnlichkeit ist das bevorzugte Maß für die Ähnlichkeit zwischen dem Abfrage-Beispiel-Wahrscheinlichkeitsstufenbild und dem zu prüfenden Wahrscheinlichkeitsstufenbild eine Funktion der Ähnlichkeit ihrer übereinstimmenden wahrnehmbar signifikanten Texturen sowie die gesamte Flächendeckung ihrer übereinstimmenden wahrnehmbar signifikanten Texturen. Zwei wahrnehmbar signifikante Texturen stimmen überein, wenn sie in ihrer Darstellung übereinstimmende Farbwerte C1, C2 und denselben Textureigenschaftswert P (zufällig oder strukturiert) aufweisen. In dem bevorzugten Ausführungsbeispiel wird für jede übereinstimmende wahrnehmbar signifikante Textur die Ähnlichkeit aus dem mittleren Maß-Gradienten-Vektor M und der Maß-Gradienten-Kovarianzmatrix V anhand entweder der euklidischen Distanz oder der Mahalanobis-Distanz berechnet. Es sei darauf hingewiesen, dass auch andere Distanzfunktionen innerhalb des Umfangs und Geltungsbereichs der Erfindung verwendbar sind. Die Gesamtwertung der Bildähnlichkeit zwischen dem zu prüfenden Bild und dem Abfrage-/Beispiel-Wahrscheinlichkeitsstufenbild ist als die Summe der Ähnlichkeitswerte aller übereinstimmenden wahrnehmbar signifikanten Texturen definiert, multipliziert mit einer Funktion (flach, linear, nichtlinear) der relativen Flächendeckung S der Textur in dem Wahrscheinlichkeitsstufenbild. Für eine Kombination aus Farb- und Texturähnlichkeit lässt sich die gewichtete Summe der farbgestützten und der texturgestützten Ähnlichkeiten berechnen. Fachleute werden erkennen, dass die zusätzlichen Merkmale, beispielsweise Formmerkmale und Merkmalskombinationen zur Bestimmung der Ähnlichkeit verwendbar sind, ohne vom Umfang und Geltungsbereich dieser Erfindung abzuweichen.
  • Die gesamte Bildähnlichkeit zwischen einem Abfragebild und einem Datenbankbild wird als die gewichtete Summe der Ähnlichkeit jeder der entsprechenden Wahrscheinlichkeitsstufendarstellungen wie folgt berechnet:
    Figure 00240001
    wobei N für die Zahl der Wahrscheinlichkeitsstufen, si für die Ähnlichkeit zwischen dem Abfrage- und dem Datenbankbild für die ite Wahrscheinlichkeitsstufe und wi für das der iten Wahrscheinlichkeitsstufe zuzuordnende Gewicht steht. Das jeder einzelnen Wahrscheinlichkeitsstufe zugeordnete Gewicht hängt von der gewünschten Art des Abrufs ab. In dem bevorzugten Ausführungsbeispiel gibt es sechs verschiedene Optionen für den Bildabruf nach einer Hauptmotivwahrscheinlichkeitstabelle:
    • (1) Bildabruf gestützt auf die Ähnlichkeitswerte aus allen Wahrscheinlichkeitsstufen des Bildes mit stärkster Betonung auf den kräftigsten Hauptmotivwahrscheinlichkeitsstufen und mit der schwächsten Betonung auf den kräftigsten Hintergrundwahrscheinlichkeitsstufen. 8a zeigt in diesem Fall eine typische Verteilung von wi mit monoton fallenden Werten von den Hauptmotivstufen bis zu den Hintergrundstufen.
    • (2) Bildabruf gestützt auf die Ähnlichkeitswerte aus allen Wahrscheinlichkeitsstufen, die den Hauptmotivbereichen des Bildes zugeordnet sind. 8b zeigt in diesem Fall eine typische Verteilung von wi mit monoton fallenden Werten von wi in den Hauptmotivwahrscheinlichkeitsstufen, jedoch mit null Werten von wi in den Hintergrundwahrscheinlichkeitsstufen.
    • (3) Bildabruf gestützt auf die Ähnlichkeitswerte aus nur den Wahrscheinlichkeitsstufen, die den Hintergrundbereichen des Bildes zugeordnet sind. 8c zeigt in diesem Fall eine typische Verteilung von wi mit monoton steigenden Werten von wi in den Hauptmotivwahrscheinlichkeitsstufen, jedoch mit null Werten von wi in den Hauptmotivwahrscheinlichkeitsstufen.
    • (4) Bildabruf gestützt auf eine Differenzkombination von Ähnlichkeitswerten, abgeleitet von den Hauptmotivwahrscheinlichkeitsstufen und den Hintergrundwahrscheinlichkeitsstufen, mit positiver Betonung der Ähnlichkeit in den Hauptmotivwahrscheinlichkeitsstufen und negativer Betonung der Ähnlichkeit in den Hintergrundwahrscheinlichkeitsstufen. 8d zeigt in diesem Fall eine typische Verteilung von wi mit positiv monoton fallenden Werten von wi in den Hauptmotivwahrscheinlichkeitsstufen und negativ monoton fallenden Werten von wi in den Hintergrundwahrscheinlichkeitsstufen.
    • (5) Bildabruf gestützt auf eine Differenzkombination von Ähnlichkeitswerten, abgeleitet von den Hauptmotivwahrscheinlichkeitsstufen und den Hintergrundwahrscheinlichkeitsstufen, mit negativer Betonung der Ähnlichkeit in den Hauptmotivwahrscheinlichkeitsstufen und positiver Betonung der Ähnlichkeit in den Hintergrundwahrscheinlichkeitsstufen. 8e zeigt in diesem Fall eine typische Verteilung von wi mit negativ monoton steigenden Werten von wi in den Hauptmotivwahrscheinlichkeitsstufen und positiv monoton steigenden Werten von wi in den Hintergrundwahrscheinlichkeitsstufen.
    • (6) Bildabruf gestützt auf eine Differenzkombination von Ähnlichkeitswerten, abgeleitet von den Hauptmotivwahrscheinlichkeitsstufen und den Hintergrundwahrscheinlichkeitsstufen, mit zufälliger oder jeder gewünschten Betonung der verschiedenen Hauptmotivwahrscheinlichkeitsstufen und der Hintergrundwahrscheinlichkeitsstufen. In diesem Fall ist eine beliebige Verteilung von wi gültig. 8f zeigt ein Beispiel einer möglichen Verteilung von wi.
  • Es sei darauf hingewiesen, dass in 8a–f die x-Achse der Kurve die vorhandenen N Wahrscheinlichkeitsstufen darstellt, wobei die ganz linke Stufe die wahrscheinlichsten Hauptmotivbereiche darstellt, dazwischen sind monoton fallende Hauptmotivwahrscheinlichkeitswerte angeordnet, während die ganz rechte Stufe die wahrscheinlichsten Hintergrundbereiche darstellt. Das in der Figur verwendete Farbschema ist grün für die Hauptmotivwahrscheinlichkeitsstufen (mit von links nach rechts fallender Hauptmotivwahrscheinlichkeitsstufe), rot für die Hintergrundwahrscheinlichkeit (mit von links nach rechts fallender Hintergrundwahrscheinlichkeit).
  • Die gesamte Bildähnlichkeit zwischen einem Abfragebild und einem Datenbankbild kann wieder als die gewichtete Summe der Ähnlichkeit jeder der entsprechenden Wahrscheinlichkeitsstufendarstellungen wie folgt berechnet werden:
    Figure 00260001
    wobei N für die Zahl der Wahrscheinlichkeitsstufen steht, sij für die Ähnlichkeit zwischen der iten Wahrscheinlichkeitsstufe des Abfragebildes und der jten Wahrscheinlichkeitsstufe eines Datenbankbildes steht und wij für das der Ähnlichkeit zuzuordnende Gewicht. Das jedem Paar der einzelnen Wahrscheinlichkeitsstufen zugeordnete Gewicht hängt von der gewünschten Art des Abrufs und dem gewünschten zulässigen Maß an „Nachlässigkeit" bezüglich der Übereinstimmung zwischen benachbarten Wahrscheinlichkeitsstufen ab. Eine Beispielsmenge von Gewichten {wij} ist in einem Matrixformat gegeben als
    Figure 00270001
    wobei die Gewichte in der Diagonalen ebenso funktionieren wie in Gleichung (6), und wobei die Gewichte abseits der Diagonalen eine „Aufweichung" der Übereinstimmung zwischen benachbarten Wahrscheinlichkeitsstufen ermöglichen, um eine potenzielle Ungenauigkeit in der Wahrscheinlichkeitsstufenpartitionierung zu berücksichtigen, die von dem Hauptmotivermittlungsprozess eingebracht werden könnte.
  • Nach Berechnung der Ähnlichkeitsmetrik für alle Datenbankbilder können diese gemäß ihrer Ähnlichkeit mit dem Abfragebild sortiert und angezeigt werden. Einschlägige Fachleute werden erkennen, dass auch andere Ähnlichkeitsmaße innerhalb des Umfangs und Geltungsbereichs der Erfindung verwendbar sind. Die Miniaturen der gewählten Bilder können optional abgerufen und in sortierter Folge angezeigt werden.
  • Der Gegenstand der vorliegenden Erfindung betrifft die digitale Bildinterpretationstechnik, worunter die Technik zu verstehen ist, die ein Digitalbild digital verarbeitet, um menschlich verständlichen Objekten, Attributen oder Bedingungen eine sinnvolle Bedeutung zuzuweisen und dann die in der weiteren Verarbeitung des Digitalbildes erzielten Ergebnisse zu nutzen.
  • Die vorliegende Erfindung wurde somit mit Bezug auf ein bestimmtes Ausführungsbeispiel für eine bestimmte Anwendung beschrieben. Einschlägige Fachleute, die Zugang zu der vorliegenden Beschreibung haben, werden zusätzliche Abwandlungen, Anwendungen und Ausführungsbeispiele innerhalb des Umfangs und Geltungsbereichs der Erfindung erkennen. Beispielsweise besteht eine mögliche Erweiterung in einem Verfahren zur Bereitstellung einer Wahrscheinlichkeitstabelle, die den Teil der Szene bezeichnet, der nicht zum Hauptmotiv gehört, wobei das Hauptmotiv weiter ableitbar ist und wobei die abgeleiteten Informationen zur Ermittlung der Bildähnlichkeit innerhalb des Umfangs und Geltungsbereichs der Erfindung verwendbar sind.
  • Die anliegenden Ansprüche schließen daher alle derartigen Anwendungen, Abwandlungen und Ausführungsbeispiele innerhalb des Umfangs und Geltungsbereichs der Erfindung ein.

Claims (10)

  1. Verfahren zum Bestimmen der Bildähnlichkeit, mit folgenden Schritten: Bereitstellen eines ersten Bildes mit einem zugeordneten Satz erster Bildmerkmale, die jeweils einzeln einem Satz von Wahrscheinlichkeitsstufen entsprechen, die stufenweise bewertet werden gemäß der Ähnlichkeit des Hauptmotivs; Bereitstellen eines zweiten Bildes mit einem zugeordneten Satz zweiter Bildmerkmale, die jeweils einzeln einem Satz von Wahrscheinlichkeitsstufen entsprechen, die stufenweise bewertet werden gemäß der Ähnlichkeit des Hauptmotivs; automatisches Erzeugen eines Wahrscheinlichkeitsstufenbildes anhand des zweiten Bildes an jeder der stufenweise bewerteten Wahrscheinlichkeitsstufen, um eine Vielzahl von Wahrscheinlichkeitsstufenbilder bereitzustellen, von denen jedes das zweite Bild ist, maskiert für eine bestimmte Wahrscheinlichkeitsstufe; automatisches Extrahieren eines oder mehrerer Merkmale entsprechend den ersten Bildmerkmalen eines jeden Wahrscheinlichkeitsstufenbildes, um extrahierte Merkmale bereitzustellen; und Vergleichen der extrahierten Merkmale mit entsprechenden ersten Bildmerkmalen an jeder der entsprechenden Wahrscheinlichkeitsstufen und Erhalten eines Maßes für die Bildähnlichkeit durch Kombinieren der Ergebnisse des Vergleichsschritts.
  2. Verfahren nach Anspruch 1, worin der Schritt des Erzeugens die Schritte umfasst: Erzeugen einer kontinuierlich bewerteten Wahrscheinlichkeitstabelle des zweiten Bildes, worin die Tabelle Wahrscheinlichkeitswerte aufweist, die sich gemäß der Ähnlichkeit des Hauptmotivs verändern; Ableiten einer mehrfach bewerteten Wahrscheinlichkeitstabelle von der kontinuierlich bewerteten Wahrscheinlichkeitstabelle, wobei die mehrfach bewertete Wahrscheinlichkeitstabelle dem Satz der stufenweise bewerteten Wahrscheinlichkeitsstufen entsprechende Wahrscheinlichkeitsstufen aufweist; und Maskieren des zweiten Bildes mit der mehrfach bewerteten Wahrscheinlichkeitstabelle, um die Wahrscheinlichkeitsstufenbilder bereitzustellen.
  3. Verfahren nach Anspruch 2, worin der Schritt des Erzeugens die Schritte umfasst: Segmentieren des zweiten Bildes in eine Vielzahl von Bereichen gleichmäßiger Farbe und Textur; Berechnen mindestens eines Strukturmerkmals und/oder eines semantischen Merkmals für jeden Bereich; und Berechnen eines Wahrscheinlichkeitswertes für alle Pixel in jedem Bereich unter Verwendung eines Bayes'schen Netzes, um die Merkmale zu kombinieren.
  4. Verfahren nach Anspruch 1, worin die Anzahl an Wahrscheinlichkeitsstufen größer ist als zwei.
  5. Verfahren nach Anspruch 1, worin mindestens eines der ersten Bildmerkmale eines der Merkmale umfasst: Farbe, Textur und Form.
  6. Verfahren nach Anspruch 1, worin die Wahrscheinlichkeitswerte des Hauptmotivs bestimmt werden durch Segmentieren des Bildes in Bereiche gleichmäßiger Farbe.
  7. Verfahren nach Anspruch 6, worin die Wahrscheinlichkeitswerte des Hauptmotivs bestimmt werden durch Berechnen mindestens eines Strukturmerkmals für jeden Bereich.
  8. Verfahren nach Anspruch 6, worin die Wahrscheinlichkeitswerte des Hauptmotivs bestimmt werden durch Berechnen mindestens eines semantischen Merkmals für jeden Bereich.
  9. Verfahren nach Anspruch 6, worin die Wahrscheinlichkeitswerte des Hauptmotivs bestimmt werden durch Berechnen eines Wahrscheinlichkeitswerts für alle Pixel im Bereich unter Verwendung eines Bayes'schen Netzes, um die Merkmale zu kombinieren.
  10. Verfahren nach Anspruch 1, worin die Wahrscheinlichkeitswerte des Hauptmotivs bestimmt werden durch Segmentieren des Bildes in Bereiche gleichmäßiger Textur.
DE60215063T 2001-01-24 2002-01-14 System und verfahren zur ermittlung von bildähnlichkeiten Expired - Lifetime DE60215063T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US26396001P 2001-01-24 2001-01-24
US263960P 2001-01-24
US09/798,604 US6826316B2 (en) 2001-01-24 2001-03-02 System and method for determining image similarity
US798604 2001-03-02

Publications (2)

Publication Number Publication Date
DE60215063D1 DE60215063D1 (de) 2006-11-16
DE60215063T2 true DE60215063T2 (de) 2007-05-16

Family

ID=26950161

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60215063T Expired - Lifetime DE60215063T2 (de) 2001-01-24 2002-01-14 System und verfahren zur ermittlung von bildähnlichkeiten

Country Status (4)

Country Link
US (1) US6826316B2 (de)
EP (1) EP1227430B1 (de)
JP (2) JP4160305B2 (de)
DE (1) DE60215063T2 (de)

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411953B1 (en) * 1999-01-25 2002-06-25 Lucent Technologies Inc. Retrieval and matching of color patterns based on a predetermined vocabulary and grammar
US6700585B2 (en) * 2001-08-03 2004-03-02 Hewlett-Packard Development Company, L.P. System and method for synthesis of parametric texture map textures
KR100422709B1 (ko) * 2001-10-05 2004-03-16 엘지전자 주식회사 영상 의존적인 얼굴 영역 추출방법
US20040205482A1 (en) * 2002-01-24 2004-10-14 International Business Machines Corporation Method and apparatus for active annotation of multimedia content
US6938222B2 (en) 2002-02-08 2005-08-30 Microsoft Corporation Ink gestures
JP2003256461A (ja) * 2002-03-04 2003-09-12 Fuji Photo Film Co Ltd 画像検索方法および装置並びにプログラム
US7043474B2 (en) * 2002-04-15 2006-05-09 International Business Machines Corporation System and method for measuring image similarity based on semantic meaning
JP4050102B2 (ja) * 2002-06-27 2008-02-20 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム
US20050210019A1 (en) * 2002-11-20 2005-09-22 Fujitsu Limited Method and apparatus for retrieving image from database, and computer product
JP2004234228A (ja) * 2003-01-29 2004-08-19 Seiko Epson Corp 画像検索装置、画像検索装置におけるキーワード付与方法、及びプログラム
JP2004348706A (ja) * 2003-04-30 2004-12-09 Canon Inc 情報処理装置及び情報処理方法ならびに記憶媒体、プログラム
JP2004334339A (ja) * 2003-04-30 2004-11-25 Canon Inc 情報処理装置及び情報処理方法ならびに記憶媒体、プログラム
JP4388301B2 (ja) * 2003-05-08 2009-12-24 オリンパス株式会社 画像検索装置、画像検索方法、画像検索プログラム及びそのプログラムを記録した記録媒体
US7224735B2 (en) * 2003-05-21 2007-05-29 Mitsubishi Electronic Research Laboratories, Inc. Adaptive background image updating
WO2005015355A2 (en) * 2003-08-07 2005-02-17 Matsushita Electric Industrial Co., Ltd. Automatic image cropping system and method for use with portable devices equipped with digital cameras
US7486819B2 (en) * 2003-12-23 2009-02-03 Aptina Imaging Corporation Sampling images for color balance information
JP2005267609A (ja) * 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd デジタル図鑑システム、図鑑検索方法、及び図鑑検索プログラム
US8156116B2 (en) 2006-07-31 2012-04-10 Ricoh Co., Ltd Dynamic presentation of targeted information in a mixed media reality recognition system
US9171202B2 (en) 2005-08-23 2015-10-27 Ricoh Co., Ltd. Data organization and access for mixed media document system
US9405751B2 (en) 2005-08-23 2016-08-02 Ricoh Co., Ltd. Database for mixed media document system
US9384619B2 (en) 2006-07-31 2016-07-05 Ricoh Co., Ltd. Searching media content for objects specified using identifiers
US8176054B2 (en) 2007-07-12 2012-05-08 Ricoh Co. Ltd Retrieving electronic documents by converting them to synthetic text
US8856108B2 (en) 2006-07-31 2014-10-07 Ricoh Co., Ltd. Combining results of image retrieval processes
US8965145B2 (en) 2006-07-31 2015-02-24 Ricoh Co., Ltd. Mixed media reality recognition using multiple specialized indexes
US10192279B1 (en) 2007-07-11 2019-01-29 Ricoh Co., Ltd. Indexed document modification sharing with mixed media reality
US8949287B2 (en) 2005-08-23 2015-02-03 Ricoh Co., Ltd. Embedding hot spots in imaged documents
US8838591B2 (en) * 2005-08-23 2014-09-16 Ricoh Co., Ltd. Embedding hot spots in electronic documents
US9530050B1 (en) 2007-07-11 2016-12-27 Ricoh Co., Ltd. Document annotation sharing
US7812986B2 (en) 2005-08-23 2010-10-12 Ricoh Co. Ltd. System and methods for use of voice mail and email in a mixed media environment
US9373029B2 (en) 2007-07-11 2016-06-21 Ricoh Co., Ltd. Invisible junction feature recognition for document security or annotation
US8868555B2 (en) 2006-07-31 2014-10-21 Ricoh Co., Ltd. Computation of a recongnizability score (quality predictor) for image retrieval
US7702673B2 (en) 2004-10-01 2010-04-20 Ricoh Co., Ltd. System and methods for creation and use of a mixed media environment
US8825682B2 (en) * 2006-07-31 2014-09-02 Ricoh Co., Ltd. Architecture for mixed media reality retrieval of locations and registration of images
US8363959B2 (en) * 2005-03-21 2013-01-29 Yeda Research & Development Co. Ltd. Detecting irregularities
US7813581B1 (en) 2005-05-06 2010-10-12 Fitzpatrick Ben G Bayesian methods for noise reduction in image processing
US7860344B1 (en) 2005-05-06 2010-12-28 Stochastech Corporation Tracking apparatus and methods using image processing noise reduction
US9020955B2 (en) * 2005-05-12 2015-04-28 Hewlett-Packard Development Company, L.P. Compositional balance driven content retrieval
US20070041064A1 (en) * 2005-08-16 2007-02-22 Micron Technology, Inc. Image sampling method for automatic white balance
US7599556B2 (en) * 2005-08-25 2009-10-06 Joseph Stanley Czyszczewski Apparatus, system, and method for scanning segmentation
JP5009577B2 (ja) 2005-09-30 2012-08-22 富士フイルム株式会社 画像検索装置および方法並びにプログラム
US7801893B2 (en) * 2005-09-30 2010-09-21 Iac Search & Media, Inc. Similarity detection and clustering of images
JP4413844B2 (ja) * 2005-10-17 2010-02-10 富士通株式会社 画像表示制御装置
DE602005007370D1 (de) * 2005-12-22 2008-07-17 Honda Res Inst Europe Gmbh Adaptive szenenabhängige Filter in Online-Lern-Umgebungen
US20070223818A1 (en) * 2006-03-27 2007-09-27 Honeywell International Inc. Method and apparatus for predicting the accuracy of virtual Scene based on incomplete information in video
TWI403912B (zh) * 2006-06-08 2013-08-01 Univ Nat Chiao Tung 圖像檢索之方法及系統
US20080002864A1 (en) * 2006-06-29 2008-01-03 Eastman Kodak Company Using background for searching image collections
US7961938B1 (en) * 2006-06-30 2011-06-14 Adobe Systems Incorporated Finding and structuring images based on a color search
US8489987B2 (en) 2006-07-31 2013-07-16 Ricoh Co., Ltd. Monitoring and analyzing creation and usage of visual content using image and hotspot interaction
US9176984B2 (en) 2006-07-31 2015-11-03 Ricoh Co., Ltd Mixed media reality retrieval of differentially-weighted links
US9063952B2 (en) 2006-07-31 2015-06-23 Ricoh Co., Ltd. Mixed media reality recognition with image tracking
US8201076B2 (en) 2006-07-31 2012-06-12 Ricoh Co., Ltd. Capturing symbolic information from documents upon printing
US9020966B2 (en) 2006-07-31 2015-04-28 Ricoh Co., Ltd. Client device for interacting with a mixed media reality recognition system
US8140530B2 (en) * 2006-08-03 2012-03-20 Nec Corporation Similarity calculation device and information search device
US20080089591A1 (en) * 2006-10-11 2008-04-17 Hui Zhou Method And Apparatus For Automatic Image Categorization
EP1933564A1 (de) * 2006-12-14 2008-06-18 Thomson Licensing Verfahren und Vorrichtung zur Kodierung und/oder Dekodierung von Videodaten mittels adaptiver Vorhersagefolge für räumliche und Bittiefenvorhersage
JP2008234342A (ja) * 2007-03-20 2008-10-02 Fujifilm Corp 画像処理装置及び画像処理方法
US8320679B2 (en) * 2007-04-23 2012-11-27 Siemens Corporate Research, Inc. Method for detecting objects using flexible edge arrangements
US8233723B2 (en) 2007-12-06 2012-07-31 Ebay Inc. Image categorization based on comparisons between images
JP5041229B2 (ja) * 2007-12-07 2012-10-03 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム
JP5276838B2 (ja) * 2007-12-20 2013-08-28 三星電子株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
US8150098B2 (en) * 2007-12-20 2012-04-03 Eastman Kodak Company Grouping images by location
US8442278B2 (en) * 2008-02-28 2013-05-14 Honeywell International Inc. Covariance based face association
JP5360052B2 (ja) * 2008-04-09 2013-12-04 日本電気株式会社 物体検出装置
US7962468B2 (en) * 2008-04-17 2011-06-14 Yahoo! Inc. System and method for providing image labeling game using CBIR
JP5121681B2 (ja) * 2008-04-30 2013-01-16 株式会社日立製作所 生体認証システム、認証クライアント端末、及び生体認証方法
US8457400B2 (en) * 2008-06-27 2013-06-04 Microsoft Corporation Patch-based texture histogram coding for fast image similarity search
WO2010014067A1 (en) * 2008-07-31 2010-02-04 Hewlett-Packard Development Company, L.P. Perceptual segmentation of images
US8762383B2 (en) * 2008-08-06 2014-06-24 Obschestvo s organichennoi otvetstvennostiu “KUZNETCH” Search engine and method for image searching
CN102165486B (zh) * 2008-09-01 2015-05-13 日本电气株式会社 图像特征提取设备
US8249318B2 (en) 2008-09-26 2012-08-21 OsteoWare, Inc. Method for identifying implanted reconstructive prosthetic devices
WO2010041542A1 (ja) 2008-10-09 2010-04-15 旭硝子株式会社 暗色系フッ素樹脂フィルムおよび太陽電池モジュール用バックシート
JP5104743B2 (ja) * 2008-12-16 2012-12-19 富士通株式会社 画像検索プログラム、画像検索方法及び記録媒体
US9768082B2 (en) * 2009-02-13 2017-09-19 Hermes Microvision Inc. Method and machine for examining wafers
US9619469B2 (en) * 2009-12-22 2017-04-11 Apple Inc. Adaptive image browsing
US8548256B2 (en) * 2010-07-01 2013-10-01 Intellectual Ventures Fund 83 Llc Method for fast scene matching
KR101699720B1 (ko) 2010-08-03 2017-01-26 삼성전자주식회사 음성명령 인식 장치 및 음성명령 인식 방법
JP2012058926A (ja) * 2010-09-07 2012-03-22 Olympus Corp キーワード付与装置及びプログラム
US8774528B2 (en) 2010-09-24 2014-07-08 Kodak Alaris Inc. Method of selecting important digital images
US8792728B2 (en) * 2010-09-27 2014-07-29 Hewlett-Packard Development Company, L.P. Near-duplicate image detection
JP5077413B2 (ja) 2010-09-30 2012-11-21 ブラザー工業株式会社 画像処理装置、画像処理方法、画像読取装置及び画像処理プログラム
US8527564B2 (en) * 2010-12-16 2013-09-03 Yahoo! Inc. Image object retrieval based on aggregation of visual annotations
JP5522024B2 (ja) * 2010-12-27 2014-06-18 ブラザー工業株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2012124252A1 (ja) * 2011-03-14 2012-09-20 株式会社ニコン 電子機器、電子機器の制御方法およびプログラム
US9870376B2 (en) * 2011-04-01 2018-01-16 Excalibur Ip, Llc Method and system for concept summarization
US20120272171A1 (en) * 2011-04-21 2012-10-25 Panasonic Corporation Apparatus, Method and Computer-Implemented Program for Editable Categorization
KR101767269B1 (ko) * 2011-04-25 2017-08-10 한국전자통신연구원 영상 검색 장치 및 방법
GB2492450B (en) * 2011-06-27 2015-03-04 Ibm A method for identifying pairs of derivative and original images
US9058331B2 (en) 2011-07-27 2015-06-16 Ricoh Co., Ltd. Generating a conversation in a social network based on visual search results
US8634648B2 (en) * 2011-12-07 2014-01-21 Elwha Llc Reporting informational data indicative of a possible non-imaged portion of a skin
CN102662949B (zh) * 2012-02-27 2014-03-12 安科智慧城市技术(中国)有限公司 一种基于多特征融合的指定目标检索方法及***
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
US9025811B1 (en) * 2013-01-02 2015-05-05 Google Inc. Performing image similarity operations using semantic classification
CN103399893B (zh) * 2013-07-23 2017-02-08 中国科学技术大学 一种基于分层感知的目标检索方法
CN104424636A (zh) * 2013-08-30 2015-03-18 联想(北京)有限公司 一种图像分割方法、图像检索方法和电子设备
US9465995B2 (en) 2013-10-23 2016-10-11 Gracenote, Inc. Identifying video content via color-based fingerprint matching
US9898685B2 (en) 2014-04-29 2018-02-20 At&T Intellectual Property I, L.P. Method and apparatus for analyzing media content
US9852188B2 (en) * 2014-06-23 2017-12-26 Google Llc Contextual search on multimedia content
US20160012594A1 (en) 2014-07-10 2016-01-14 Ditto Labs, Inc. Systems, Methods, And Devices For Image Matching And Object Recognition In Images Using Textures
CA2922296A1 (en) 2015-03-02 2016-09-02 Slyce Holdings Inc. System and method for clustering data
US10380576B1 (en) 2015-03-20 2019-08-13 Slyce Canada Inc. System and method for management and automation of instant purchase transactions
JP6516832B2 (ja) * 2015-04-08 2019-05-22 株式会社日立製作所 画像検索装置、システム及び方法
CN105404657B (zh) * 2015-11-04 2018-11-02 北京工业大学 一种基于cedd特征和phog特征的图像检索方法
US10674953B2 (en) * 2016-04-20 2020-06-09 Welch Allyn, Inc. Skin feature imaging system
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US9977990B1 (en) * 2017-01-08 2018-05-22 International Business Machines Corporation Cognitive method for visual classification of very similar planar objects
CN107145855B (zh) * 2017-04-28 2020-10-09 努比亚技术有限公司 一种参考质量模糊图像预测方法、终端及存储介质
CN109858308B (zh) * 2017-11-30 2023-03-24 株式会社日立制作所 视频检索装置、视频检索方法和存储介质
KR102579452B1 (ko) 2018-09-05 2023-09-15 삼성전자주식회사 영상 표시 장치 및 그 동작방법
EP3644616A1 (de) * 2018-10-22 2020-04-29 Samsung Electronics Co., Ltd. Anzeigevorrichtung und betriebsverfahren dafür
US11210359B2 (en) * 2019-08-20 2021-12-28 International Business Machines Corporation Distinguishing web content and web content-associated data
CN114666654A (zh) * 2022-05-20 2022-06-24 山东浪潮超高清视频产业有限公司 一种通过rgb颜色模式确认视频图像内容一致性比对方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579471A (en) 1992-11-09 1996-11-26 International Business Machines Corporation Image query system and method
JP3067966B2 (ja) * 1993-12-06 2000-07-24 松下電器産業株式会社 画像部品を検索する装置及びその方法
JP3026712B2 (ja) * 1993-12-09 2000-03-27 キヤノン株式会社 画像検索方法及びその装置
JP3919237B2 (ja) 1994-05-20 2007-05-23 キヤノン株式会社 画像記録再生装置、画像再生装置、及びその方法
US5802361A (en) * 1994-09-30 1998-09-01 Apple Computer, Inc. Method and system for searching graphic images and videos
US5835667A (en) * 1994-10-14 1998-11-10 Carnegie Mellon University Method and apparatus for creating a searchable digital video library and a system and method of using such a library
US5852823A (en) 1996-10-16 1998-12-22 Microsoft Image classification and retrieval system using a query-by-example paradigm
US5930783A (en) * 1997-02-21 1999-07-27 Nec Usa, Inc. Semantic and cognition based image retrieval
JP3780623B2 (ja) * 1997-05-16 2006-05-31 株式会社日立製作所 動画像の記述方法
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US6606623B1 (en) * 1999-04-09 2003-08-12 Industrial Technology Research Institute Method and apparatus for content-based image retrieval with learning function
EP1045313A3 (de) * 1999-04-14 2006-01-11 Eastman Kodak Company Auf wahrnembare, wichtige Merkmale basierende Speicherung und Wiederauffindung von Bildern
US6594383B1 (en) * 1999-11-16 2003-07-15 International Business Machines Corporation Method and apparatus for indexing and retrieving images from an images database based on a color query
US6611834B1 (en) * 2000-01-12 2003-08-26 International Business Machines Corporation Customization of information retrieval through user-supplied code

Also Published As

Publication number Publication date
US20020131641A1 (en) 2002-09-19
EP1227430A2 (de) 2002-07-31
EP1227430A3 (de) 2005-02-09
DE60215063D1 (de) 2006-11-16
JP4160305B2 (ja) 2008-10-01
JP2008262581A (ja) 2008-10-30
JP2002324237A (ja) 2002-11-08
US6826316B2 (en) 2004-11-30
EP1227430B1 (de) 2006-10-04

Similar Documents

Publication Publication Date Title
DE60215063T2 (de) System und verfahren zur ermittlung von bildähnlichkeiten
DE60215743T2 (de) Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen
DE69937530T2 (de) Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen
DE60221109T2 (de) Bildsuche unter verwendung eines entfernungsmasses
DE69925805T2 (de) Skalierbare lösung für das wiederauffinden von bildern
DE602004008984T2 (de) Verfahren zur Erkennung von farbigen Objekten in digitalen Bildern
US6738494B1 (en) Method for varying an image processing path based on image emphasis and appeal
US6748097B1 (en) Method for varying the number, size, and magnification of photographic prints based on image emphasis and appeal
DE3689416T2 (de) Mustermerkmalextraktion.
DE60317053T2 (de) Verfahren und Vorrichtung zur Darstellung einer Bildgruppe
DE60210199T2 (de) Verfahren zur erkennung von motivbereichen in bildern
DE60114469T2 (de) Methode und Gerät zur Bestimmung von interessanten Bildern und zur Bildübermittlung
DE19708265B4 (de) Verfahren zum Durchsuchen einer Dokument-Bilddatenbank und Dokumentbild-Durchstöberungssystem sowie Verfahren zum Extrahieren eines Merkmalsvektors aus einem elektronisch gespeicherten Bild
DE10297802B4 (de) Verfahren, Speichermedium und System zum Suchen einer Sammlung von Medienobjekten
DE60033118T2 (de) System und Methode zum inhaltsbasierten Wiederauffinden von Bildern
DE10317917B4 (de) System und Verfahren zum Umgrenzen und Klassifizieren von Regionen innerhalb einer graphischen Abbildung
DE112008003972T5 (de) Automatische Erzeugung einer skalierbaren, nach Relevanz geordneten Darstellung einer Bildsammlung
DE60127889T2 (de) Verfahren zur Erkennung Doppelbildern in einem automatischen Albensystem
EP2050023A1 (de) Verfahren zum analysieren und/oder testen zumindest einer benutzeroberfläche, datenverarbeitungseinrichtung und computerprogrammprodukt
DE102019122402A1 (de) Das klassifizieren von zeitreihenbilddaten
Carballal et al. Distinguishing paintings from photographs by complexity estimates
DE60033580T2 (de) Verfahren und gerät zur klassifizierung eines bildes
DE60217748T2 (de) Verfahren und Gerät zur Anzeige eines Bildraumes
EP1154369A2 (de) Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens
WO2007042195A2 (de) Verfahren zur segmentierung in einem n-dimensionalen merkmalsraum und verfahren zur klassifikation auf grundlage von geometrischen eigenschaften segmentierter objekte in einem n-dimensionalen datenraum

Legal Events

Date Code Title Description
8364 No opposition during term of opposition