DE68918886T2 - Verfahren zur Gewinnung der Aussenlinie eines Objektes in einem Bild. - Google Patents

Verfahren zur Gewinnung der Aussenlinie eines Objektes in einem Bild.

Info

Publication number
DE68918886T2
DE68918886T2 DE68918886T DE68918886T DE68918886T2 DE 68918886 T2 DE68918886 T2 DE 68918886T2 DE 68918886 T DE68918886 T DE 68918886T DE 68918886 T DE68918886 T DE 68918886T DE 68918886 T2 DE68918886 T2 DE 68918886T2
Authority
DE
Germany
Prior art keywords
image
contour
differential
ring
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE68918886T
Other languages
English (en)
Other versions
DE68918886D1 (de
Inventor
Ikuo C/O Dainippon Screen Mfg. Co. Ltd. Horikawa Dori Kamikiyo-Ku Kyoto Ohsawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP8792988A external-priority patent/JPH0642068B2/ja
Priority claimed from JP63191428A external-priority patent/JPH0240777A/ja
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Publication of DE68918886D1 publication Critical patent/DE68918886D1/de
Application granted granted Critical
Publication of DE68918886T2 publication Critical patent/DE68918886T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

    Hintergrund der Erfindung Gebiet der Erfindung
  • Die gegenwärtige Erfindung betrifft ein Verfahren zur Gewinnung der Kontur eines Objektbildes aus einem Originalbild und, genauer gesagt, eine Verbesserung zum Erzeugen von Konturbilddaten, die die Kontur ausdrücken.
  • Beschreibung des Stands der Technik
  • Bei einem fotografischen Verfahren zum Drucken wird häufig eine Ausschneidemaske gefertigt, um einen gewünschten Bildbereich aus einer Originalbildebene herauszuschneiden. Wenn eine Fotografie von Gegenständen als ein Originalbild zum Drucken eines Katalogs der Gegenstände erstellt wird, wird, beispielsweise, das Bild der Gegenstände von dem Bildhintergrund durch eine Ausschneidungsmaske abgetrennt, wobei die Maske an die Form der Gegenstände angepaßt ist. Der durch die Ausschneidemaske gewonnene Bildbereich wird dann mit anderen Bildern gemaß eines gewünschten Layouts kombiniert und auf einen fotoempfindlichen Film mit einem grafischen Scanner reproduziert. Die Ausschneidemaske kann auch verwendet werden, um einen gewünschten Bildbereich zwecks Korrigierung des Tons herauszutrennen.
  • Bei elektronischen Bildverarbeitungen wird solch eine Ausschneidemaske in der Form eines binären Maskenmusters hergestellt, bei welchem der innere Bereich eines gewünschten Bildbereichs durch einen logischen Hochpegel ("1") gekennzeichnet ist, während der äußere Bereich durch einen logischen Niedrigpegel ("0") gekennzeichnet ist. Die Grenze zwischen dem inneren und dem äußeren Bereich ist die Kontur des gewünschten Bildbereichs. Eine Bildmaskierungs- oder Bildausschneidungshandlung wird dadurch erhalten, daß für jeden Pixel bestimmt wird, ob der Originalbilddatenwert gültig oder ungültig bezüglich des binären Maskenmusters ist, wobei gültig" und "ungültig" durch den "1"- bzw. "0"-Pegel gekennzeichnet ist.
  • Eine der praktischsten Techniken zum Herstellen eines binären Maskenmusters verwendet ein kleines Fenster, das in einem kleinen Bereich, der einen Teil der Kontur enthält, gesetzt wird. Die entsprechenden Dichteniveaus der Pixel, die von dem kleinen Fenster umgeben werden, werden mit einem Schwellenniveau verglichen, und der "1"-Pegel wird den Pixeln gegeben, deren Dichteniveaus höher als das Schwellenniveau sind, während der "0"-Pegel den Pixeln gegeben wird, deren Dichteniveaus niedriger als das Schwellenniveau sind. Daher kann der innere Bereich von dem äußeren Bereich des gewünschten Bildes auf einer Bit-Ebene unterschieden werden als ein "1"-Pegelbereich bzw. ein "0"-Pegelbereich, wenn das Schwellenniveau so ausgewählt worden ist, daß es ein Zwischenniveau zwischen entsprechenden optischen Dichten eines gewünschten Bildes und eines Hintergrunds desselben ist.
  • Das kleine Fenster wird dann zu dem nächsten kleinen Bereich entlang der Kontur bewegt während des Beobachtens des Originalbildes und des kleinen Bereichs auf einem CRT (optisches Terminal), und die oben beschriebene Betriebsweise wird für den nächsten kleinen Bereich wiederholt. Wenn die Wiederholung abgeschlossen ist für die komplette Umrandung des Bildes, erscheint das Konturbild auf der Bit-Ebene als eine geschlossene Grenzlinie zwischen dem "1"-Pegelbereich und dem "0"-Pegelbereich. Das Binärmaskenmuster kann durch Auffüllen des Bereichs, der von der Kontur mit dem "1"-Pegel auf der Bit-Ebene umgeben wird, erhalten werden.
  • Obwohl das herkömmliche Verfahren bei einer Vielzahl von Bildkonturtypen verwendet werden kann, hat es einen Nachteil, der sich daraus ergibt, daß das Schwellenniveau häufig aktualisiert werden sollte, während das kleine Fenster entlang der Kontur bewegt wird, da sich das Dichteniveau des Originalbildes erheblich entlang der Konturen ändern kann. Da die Auswahl des Schwellenwertes eine empfindliche Arbeit ist, wird eine relativ lange Zeit zum häufigen Aktualisieren des Schwellenwerts benötigt, selbst von einer geübten Bedienperson.
  • Ferner wird ein Problem hervorgerufen bei der Wahl des Farbkomponentenbildes zum Erfassen der Kontur, wenn das Originalbild ein Farbbild ist, das durch einen Satz von Farbkomponentenbildern dargestellt wird. Insbesondere dann, wenn die entsprechenden Teile der Kontur in verschiedenen Farbkomponenten existieren, kann die komplette Kontur nicht systematisch erfaßt werden, da die herkömmliche Technik ein oder mehrere Farbkomponentenbilder verwendet, welche durch Intuition einer Bedienperson ausgewählt werden.
  • Ein anderer Nachteil der herkömmlichen Technik ist, daß Spalten und feine Löcher in dem Konturbild kaum eliminiert oder durch das Konturerfassungsverfahren kompensiert werden können,
  • Die Druckschrift GB-A-2 153 181 offenbart ein Verfahren zum Erzeugen von Konturbilddaten, die eine Kontur eines Objektbildes darstellen, das in einem Originalbild enthalten ist, wobei besagtes Originalbild durch eine Vielzahl von Pixeln dargestellt wird, die eine Gradation aufweisen, durch Anzeigen des Originalbildes auf einem Ahzeigemittel, Spezifizieren eines Bereichs auf dem Originalbild, während des Beobachtens besagten originalbildes auf besagten Ahzeigemittel, so daß besagte Kontur zu besagtem Bereich gehört, und Berechnen entsprechender räumlicher Differentiale der Gradationsniveaus bezüglich der Pixel, die in besagtem Bereich enthalten sind, Bestimmen eines Schwellenniveaus für besagte entsprechende räumliche Differentiale und Erzeugen von Konturbilddaten, die ein Konurbild darstellen, auf welchem gewonnene Pixel besagte Kontur repräsentieren. Die Druckschrift offenbart ferner die Verwendung eines Bildfensterüberlappens mit der zu erhaltenen Kontur und ein Repositionieren des Fensters, um entlang der Kontur bewegt zu werden, und ein Festlegen des Bereichs, der die Kontur umfaßt, durch die Spur des Fensters.
  • Ferner beschreibt die Druckschrift EP-A 0 058 028 ein Verfahren zum Gewinnen einer Kontur, das das Berechnen entsprechender räumlicher Differentiale der Gradationsniveaus bezüglich der Pixel, die in dem Bereich enthalten sind, das Bestimmen eines Schwellenniveaus für besagte entsprechende räumliche Differentiale, das Vergleichen der entsprechenden räumlichen Differentiale mit besagten Schwellenniveau, um dadurch besagte Pixel in besagtem Bereich in eine erste Gruppe aus Pixeln, die Differentiale mit einem größeren Wert als besagtes Schwellenniveau aufweisen, und in eine zweite Gruppe aus Pixeln, die Differentiale mit einem kleineren Wert als besagtes Schwellenniveau aufweisen, zu klassifizieren, und das Gewinnen von Pixeln, die zu besagter ersten Gruppe aus besagten Pixeln in besagten Bereich gehören, um dadurch die gewonnenen Pixel zu spezifizieren, umfaßt.
  • Schließlich offenbart das IBM Technical Disclosure Bulletin, Vol. 14, Nr. 4, September 1971, Seiten 1301 bis 1304, New York, US; CK COW et al.: "Boundary Extraction Method and Algorythm", die Verwendung von Histogramnen und das Aufteilen der Histogramme in unterschiedliche Teile basierend auf einem variablen Prozentverhältnis.
  • Begriffsdefinitionen
  • In der gegenwärtigen Patentanmeldung werden einige Ausdrücke im weiteren Sinne verwendet, wie folgt:
  • (1) Gradationsniveau oder Dichteniveau
  • Der Ausdruck drückt nicht nur ein optisches Dichteniveau eines Bildes aus, sondern auch Werte, die das optische Dichteniveau repräsentieren, wie ein Munsell-Wert, ein Signalniveau, das durch fotoelektrisches Lesen des Bildes erhalten wird, und eine Rasterpunktprozentzahl beim Rasteraufzeichnen des Bildes.
  • (2) Verfahren zum Erzeugen oder Erhalten eines Bildes
  • Der Ausdruck "zum Erzeugen eines Bildes" wird nicht nur dafür verwendet, das "Erzeugen eines Bildes in Form eines aufgezeichneten Bildes oder eines angezeigten Bildes" anzugeben, aber auch zum "Erzeugen eines Bildes in der Form von Bilddaten oder -signalen ohne sichtbare Reproduktion desselben". Die Signale können elektrische Signale, optische Signale oder dergleichen sein.
  • (3) Verfahren zum Speichern eines Bildes
  • Der Ausdruck umfaßt das Verfahren, bei welchem Bilddaten, die das Bild darstellen, in einer Speichereinrichtung gespeichert werden. Entsprechend kann der Ausdruck "eine Abbildung in einem Speicher" als "eine Abbildung, die durch in einem Speicher gespeicherte Bilddaten dargestellt wird", gelesen werden.
  • Zusammenfassung der Erfindung
  • Die gegenwärtige Erfindung ist für ein Verfahren zum Erzeugen von Konturbilddaten gedacht, die eine Kontur eines Objektbildes darstellen, welches in einem Originalbild enthalten ist, wobei besagtes Originalbild durch eine Vielzahl von Pixeln mit Gradation dargestellt wird und das Verfahren in Anspruch 1 gegeben ist.
  • Ein Differentialhistogramm der entsprechenden räumlichen Differentiale wird für jeden Teilbereich erzeugt. Das Differentialhistogramm wird in zwei Teile mit einem bestimmten prozentualen Verhältnis aufgeteilt. Das Grenzniveau zwischen den beiden Teilen wird zum Bestimmen des Schwellenniveaus verwendet.
  • Wenn das Originalbild ein Farbbild ist, das in verschiedene Farbkomponentenbildern separiert ist, ist es bevorzugt, die Konturbilddaten auf der Basis von zwei oder mehr Farbkomponentenbildern zu erzeugen. Entsprechende Konturbilder, die aus einer Vielzahl von Farbkomponentenbildern erhalten worden sind, werden miteinander überlappt, über ein logisches Aufsummieren derselben. Durch das logische Zusammenzählen wird ein Konturbild ohne Spalten erhalten.
  • Bei dem bevorzugten Ausführungsbeispiel wird eine Vielzahl von Farbkomponentenbildern gemäß dem Grad der Bildklarheit entlang der Kontur ausgewählt, die mit Hilfe eines statistischen Wertes berechnet wird, der den Grad der Trennung oder den Schnitt in der Verteilung der entsprechenden räumlichen Differentiale für jeden Teilbereich darstellt.
  • Gemäß der Krümmung der Kontur kann die Größe des Bildbereichs geändert werden. Die Anzahl der bei der Konturerfassung zu verwendenden Farbkomponentenbilder kann ebenfalls für jeden Teilbereich geändert werden.
  • Da die entsprechenden räumlichen Differentiale zur Erfassung der Kontur verwendet werden und der Schwellenwert gemäß eines prozentualen Verhältnisses bestimmt wird, ist ein häufiges Aktualisieren des Schwellenwertes unter Zuhilfenahme der Intuition einer Bedienperson nicht nötig für die Konturerfassung.
  • Das Verfahren umfaßt die folgenden Schritte: (1) Berechnen entsprechender räumlicher Differentiale der Gradationsniveaus bezüglich Pixeln auf besagtem Originalbild, (2) Vergleichen besagter entsprechender räumlicher Differentiale mit einem Schwellenniveau, um besagte Pixel auf besagem Originalbild in Binärform zu bringen, wobei ein Differentialkonturbild, das besagte Kontur darstellt, erhalten wird, (3) Erzeugen eines Ringbildes, das besagtes Differentialkonturbild mit einem Rand überdeckt (4) Aufteilen besagten Ringbildes in ein inneres Ringbild und ein äußeres Ringbild mit besagtem Differentialkonturbild, wobei besagtes inneres Ringbild von besagtem äußeren Ringbild durch eine Lücke getrennt ist, die einem Umkehrbild besagten Differentialkonturbildes entspricht, (5) Löschen entweder des inneren oder des äußeren Ringbildes, um dadurch ein übrigbleibendes Ringbild zu erzeugen, (6) Kombinieren besagten übrigbleibenden Ringbildes mit besagtem ersten Konturbild, um ein zusammengesetztes Bild in Form eines Ringes zu erhalten, (7) Erzeugen eines Schleifenbildes, das eine Schleife darstellt, die sich entlang einer Kante besagten zusammengesetzten Bildes erstreckt, und (8) Erzeugen besagter Konturbilddaten in Übereinstimmung mit besagtem Schleifenbild.
  • Vorzugsweise wird besagtes zusammengesetztes Bild durch Löschen entweder des inneren oder des äußeren Kantenbereichs besagten zusammengesetzten Bildes ausgedünnt, um ein ausgedünntes Bild in der Form eines Ringes zu erhalten. Dann werden ein erstes Kantenbild, welches innere und äußere Kanten des ausgedünnten Bildes darstellt, und ein zweites Kantenbild, welches innere und äußere Kante des Ringbildes darstellt, erzeugt.
  • Das Schleifenbild wird durch Löschen eines Teils des ersten Kantenbildes in den Bereichen, in denen das zweite Kantenbild einen Überlapp mit dem ersten Kantenbild aufweist, erhalten.
  • Bei einem bevorzugten Ausführungsbeispiel der gegenwärtigen Erfindung werden ein erstes und ein zweites Bildfenster auf dem Originalbild, das auf einem Anzeigemittel angezeigt wird, festgelegt. Das erste Bildfenster wird zur Festlegung von Teilbereichen verwendet, für welche das Differentialkonturbild gewonnen wird, während das zweite Bildfenster zum Erzeugen des Ringbildes verwendet wird. Die Größe des zweiten Bildfensters ist größer als die des ersten Bildfensters, weshalb das Ringbild die Kontur mit einem Rand überdeckt.
  • In dem zusammengesetzten Bild kompensieren feine Löcher, die in dem Differentialkonturbild enthalten sind, umgekehrte feine Löcher, die in dem Umkehrbild des Differentialkonturbildes enthalten sind.
  • Entsprechend ist es ein Ziel der gegenwärtigen Erfindung, systematisch Konturbilddaten zu erzeugen, die die Kontur eines Objektbildes ohne häufiges Ändern eines Schwellenniveaus darstellen.
  • Ein anderes Ziel der gegenwärtigen Erfindung ist, ein Konturbild ohne Spalten zu erhalten.
  • Ein weiteres Ziel ist es, ein Konturbild ohne feine Löcher zu erhalten.
  • Ferner ist es ein Ziel, ein Konturbild zu erhalten, das an Stellen plaziert ist, die geeignet sind, um eine gewünschte visuelle Darstellung für Beobachtungspersonen zu liefern.
  • Ein weiteres Ziel ist es, ein Verfahren zum Erfassen einer Kontur zu liefern, bei welchem entsprechende Verfahrensschritte mittels einer Anzeigevorrichtung beobachtet werden können, um einfach Spalten in dem Konturbild zu finden und zu korrigieren.
  • Diese und andere Ziele, Merkmale, Aspekte und Vorteile der gegenwärtigen Erfindung werden aus der folgenden detaillierten Beschreibung der gegenwärtigen Erfindung im Zusammenhang mit den beiliegenden Zeichnungen deutlicher.
  • Kurze Beschreibung der Zeichnungen
  • Fig. 1 ist ein Blockdiagramm, das ein Bildverarbeitungssystem 100 zeigt;
  • Fig. 2 ist ein Flußdiagramm, das einen Betrieb des Systems 100 zeigt;
  • Fig.en 3A - 3c sind Bilddiagramme, die die Bewegung eines Bildfensters N auf einer Bildebene zeigen;
  • Fig. 4A ist ein schematisches Diagramm, das die entsprechenden Dichteniveaus der Pixel in dem Bildfenster N zeigt;
  • Fig. 4B ist ein schematisches Diagramm, das die in einer Differentialbildebene gespeicherten Differentiale zeigt;
  • Fig.en 5A - 5D sind Graphen, die Beispiele für Differentialhistogramme für entsprechende Farbkomponenten zeigen;
  • Fig. 6 ist ein Diagramm, das schematisch ein Verfahren zum Bestimmen eines Schwellenniveaus Eth mit einem Differentialhistogramm und einem bestimmten prozentualen Verhältnis zeigt;
  • Fig, 7 zeigt eine Verteilung von Konturpixeln in einem Bildfenster N;
  • Fig,n 8A u. 8B sind Graphen, die die Bestimmung des Schwellenniveaus Eth für zwei Differentialhistogrammtypen zeigen;
  • Fig.en 9A - 9C sind Bilddiagramme, die ein Verfahren zum erhalten eines Differentialkonturbildes Schritt für Schritt zeigen;
  • Fig. 10 ist ein Blockdiagramm, das ein Bildverarbeitungssystem 200 gemäß einer bevorzugten Ausführungsform der gegenwärtigen Erfindung zeigt;
  • Fig. 11 ist ein Flußdiagramm, das einen Betrieb des Systems 200 zeigt;
  • Fig.en 12A - 12C sind Flußdiagramme, die Details der Verfahrensschritte S105, S106 bzw. S109 von Fig. 11 zeigen;
  • Fig.en 13A - 13E, Fig.en 14A - 14E, und Fig.en 16A - 16C sind Bilddiagramme, die Bilder zeigen, die durch den Betrieb des Systems 200 erhalten worden sind;
  • Fig.en 15A - 15E sind vergrößerte Diagramme, die entsprechende Bilder in Bereichen PA1 bis PA5 der Figuren 14A bis 14E zeigen; und
  • Fig. 17 ist ein Diagramm zum Erklären des Vorteils der gegenwärtigen Erfindung.
  • A. Gesamtaufbau und Funktionen
  • Fig. 1 ist ein Blockdiagramm, das ein Bildverarbeitungssystem 100 zeigt welches so aufgebaut ist, daß es die Kontur eines Originalbildes zum Erzeugen eines Binärmaskenmusters gewinnt. Das System 100 ist mit einer CPU (zentrale Recheneinheit) 1 in Form eines Mikrocomputers zum Steuern des Systems 100 ausgerüstet, und Betriebsprogramme für die CPU 1 sind zuvor in ein ROM (oder RAM) 2 gespeichert werden. Ein RAM 3 kann unterschiedliche Datenbildebenen, wie eine Differentialbildebene 3a und eine Differentialhistogrammbildebene 3b speichern, die später beschrieben werden.
  • Ein Originalfarbbild (nicht gezeigt) mit Gradation wird von einem fotoelektrischen Bildlesegerät Pixel für Pixel gelesen, während Farbkomponenten desselben voneinander abgetrennt werden, wodurch Originalbilddatenwerte, die das Originalbild darstellen, als ein Satz von Farbkomponentenbildern in Gelb (Y), Magenta (M), Zyan (C) und Schwarz (K) erhalten wird. Diese Farbkomponentenbilder haben jeweils eine Gradation und werden in einem Plattenspeicher 4 für jedes Pixel gespeichert. Dann werden die YMCK-Farbkomponentenbilder aus dem Plattenspeicher 4 unter der Steuerung der CPU 1 ausgelesen und über eine Busleitung 6 zu den Bildspeichern 5Y, 5M, 5C bzw. 5K übertragen. um in denselben für jede Farbkomponente gespeichert zu werden.
  • Wie später beschrieben wird, erzeugt das System 100 ein Konturbild, das die Kontur des Originalbildes darstellt. Das Konturbild wird in einem Maskenspeicher 7 gespeichert. Ein Anzeigesteuergerät 8 ist elektrisch mit dem Bildspeicher 5 und dem Naskenspeicher 7 verbunden, und die folgenden Funktionen sind dem Anzeigesteuergerät 8 übertragen:
  • (1) D/A-Umwandlung der Bilddaten;
  • (2) eine Funktion zum Empfangen der YMCK-Farbkonponentenbilder von dem Bildspeicher 5, um dieselben in Bildsignale mit roter (R), grüner (G) und blauer (B) Farbe zu konvertieren;
  • (3) eine Funktion zum Steuern eines Farbanzeigegerätes 9, wie ein Farb-CRT, so daß ein Bildfenster oder ein Bildfenster N (Fig. 3A), welches später bestimmt wird, auf dem Farbanzeigegerät 9 gemäß einem Betriebseingabesignal von einem X-Y-Digitalisierer (A/D-Umwandler) 10 angezeigt wird;
  • (4) Funktionen zum Nodifizieren der Vergrößerung eines angezeigten Bildes, Drehen eines angezeigten Bildes, Anpassen des Bildkontrastes auf dem Farbanzeigegerät 9 und Konvertieren eines in dem Maskenspeicher 7 gespeicherten Bildes in ein Farbbild oder ein halbtransparentes Farbbild zum Anzeigen desselben auf dem Farbanzeigegerät 9;
  • (5) eine Funktion zum Ändern einer Prioritätsreihenfolge beim Anzeigen einer Vielzahl von Farbkomponentenbildern;
  • (6) eine Funktion des Überlappens eines in dem Bildspeicher 5 gespeicherten Bildes und des in dem Maskenspeicher 7 gespeicherten Bildes zum Anzeigen des überlappten Bildes auf dem Farbanzeigegerät 9.
  • Der A/D-Umwandler 10 ist mit einem Schreibstift 11 ausgerüstet, und Koordinaten eines gewünschten Punktes auf einer Bildebene werden über die Zusammenarbeit des A/D-Umwandlers 10 und des Schreibstifts 11 eingegeben, wobei die Koordinaten den entsprechenden Speicheradressen in dem Bildspeicher 5 und dem Maskenspeicher 7 entsprechen. Wenn die Koordinaten eingegeben sind, wird das Bildfenster an einer Stelle auf dem Farbanzeigegerät 10 dargestellt, während ein Einstellen des Mittelpunktes des Bildfensters N bezüglich der eingegebenen Koordinaten auf der Anzeigeebene stattfindet. Der Schreibstift 11 ist mit einem Druckknopf (nicht gezeigt) ausgerüstet, und die CPU 1 beginnt, in Antwort auf ein manuelles Betätigen des Druckknopfes, mit dem Erfassen der Kontur innerhalb des Bildfensters N, das gegenwärtig angezeigt wird.
  • Das System 100 umfaßt eine Tastatur 12 zum Eingeben verschiedener Kommandos und nummerischer Daten. Eine der nummerische Daten ist die Indikation dafür, wieviele Farbkomponentenbilder der Konturerfassung unterworfen werden sollen. Codierer 13 und 14 sind mit der CPU 1 über die Busleitung 6 verbunden. Die Größe des Bildfensters N wird von einer Bedienperson bestimmt und mittels des ersten Codierers 13 codiert, um zu der CPU 1 übermittelt zu werden. Ähnlich wird ein prozentuales Verhältnis, das zum Erfassen der Kontur verwendet wird, von der Bedienperson bestimmt und mittels des zweiten Codierers 14 codiert. Diese Codierer 13 und 14 werden nicht nur bei der anfänglichen Bestimmung der entsprechenden Daten, aber auch beim Aktualisieren oder Verändern derselben verwendet, und entsprechende Eingabehandlungen über die Codierer 13 und 14 werden durch manuelles Betätigen eines variablen Widerstandes (nicht gezeigt), der in jedem Codierer vorhanden ist, erhalten.
  • B. Betrieb (B-1) Initiieren und Anzeigen des Originalbildes
  • Im folgenden wird sich auf Fig. 2 bezogen. Die Bilddaten, die das Farboriginalbild darstellen, werden aus dem Plattenspeicher 4 ausgelesen, in Antwort auf ein Start-Kommando, das von einer Bedienperson eingegeben wird (Verfahrensschritt S1). Das Originalbild enthält ein Objektbild, dessen Kontur gewonnen werden soll, und das Originalbild besteht aus den YMCK-Farbkomponentenbildern. Die YMCK-Farbkomponentenbilder werden zu dem Bildspeicher 5 übermittelt, um in den ihnen entsprechenden Bildspeichern 5Y, 5M, 5C und 5K gespeichert zu werden. Der Maskenspeicher 7 wird dann in dem Verfahrenssschritt S2 geleert.
  • Die YMCK-Farbkomponentenbilder werden dann an das Anzeigesteuergerät 8 übermittelt und dort in analoge Signale umgewandelt. Die analogen YMCK-Signale werden weiter in analoge RGB-Signale umgewandelt, um dem Farbanzeigegerät 9 zugeführt zu werden, wobei das Originalbild, das das Objektbild enthält, auf dem Anzeigegerät 9 angezeigt wird (Verfahrenssschritt S3). Fig. 3A zeigt ein Beispiel für das angezeigte Bild, wobei das Objektbild I und die Kontur CT desselben schematisch in einer rechteckigen Anzeigenebene dargestellt sind.
  • In dem nächsten Schritt S4 gibt die Bedienperson eine Zahl T ein, die anzeigt, wieviele Farbkomponentenbilder der Konturerfassung in einer abfallenden Reihenfolge bezüglich des Grads der Bildklarheit der Kontur CT unterworfen werden sollen. Kriterien für die Bestimmung des Grads der Bildklarheit der Kontur CT werden später beschrieben. Für den Satz der YMCK-Farbkomponentenbilder wird die Zahl T aus ganzen Zahlen "1" bis "4" ausgewählt. Die Zahl T, die so eingegeben wird, wird dann zu dem RAM 3 geliefert, um in demselben als ein Anfangswert T gespeichert zu werden (Verfahrensschritt S4).
  • (B-2) Bestimmen des Bildfensters und der räumlichen Differentiation der Dichteniveaus
  • Die Bedienperson gibt dann Koordinatendaten über den A/D-Umwandler 10 und den Schreibstift 11 ein. Die CPU 1 holt die Koordinatendaten und die bestimmte Größe des Bildfensters aus dem A/D-Umwandler 10 bzw. dem ersten Codierer 13. In dem bevorzugten Ausführungsbeispiel ist die Form des Bildfensters N kreisförmig, und deshalb ist die Größe desselben durch seinen Radius bestimmt. Diese so bestimmten Daten werden dann in dem RAM 3 gespeichert, und das Bildfenster N mit dem festgelegten Radius wird auf dem Farbanzeigegerät 9 dargestellt. Der Mittelpunkt des Bildfensters N ist durch die eingegebenen Koordinaten gegeben. Ein Beispiel für das Bildfenster N ist in Fig. 3A gezeigt.
  • Die Position und die Größe des Bildfensters ändert sich in Antwort auf die Bewegung des Schreibstifts 11 bzw. den manuellen Betrieb des ersten Codierers 13. Die Bedienperson bewegt das Bildfenster N durch Bewegen des Schreibstifts 11, während sie das Farbanzeigegerät 9 beobachtet, bis ein Teil der Kontur CT in dem Bildfenster N auftaucht (Verfahrensschritt S5).
  • In dem nächsten Verfahrensschritt S6 wird detektiert, ob ein Ende-Kommando eingegeben worden ist, oder nicht. Vor Fertigstellung der Konturerfassung ist noch kein Ende-Kommando eingegeben worden, und daher geht das Verfahren über zu dem Verfahrensschritt S7. Wenn das Bildfenster N an eine Position auf der Kontur CT bewegt wird, drückt die Bedienperson den an dem Schreibstift 11 angebrachten Knopf. Das Drücken des Knopfes wird in dem Verfahrensschritt S7 erfaßt, und dann geht das Verfahren zu dem nächsten Verfahrensschritt S8 über. Wenn der Knopf nicht gedrückt worden ist, um dadurch anzuzeigen, daß der Schreibstift 11 bewegt worden ist, kehrt das Verfahren zu dem Verfahrensschritt S5 zurück.
  • In dem Verfahrensschritt S8 werden die YMCK-Farbkomponentenbilder innerhalb des Bildfensters N der Reihe nach aus dem Bildspeicher 5 ausgelesen, und dann werden die räumlichen Differentiale der Dichteniveaus für jede Farbkomponente und für jedes Pixel, das innerhalb des inneren Bereichs des Bildfensters N angeordnet ist, berechnet. Fig. 4A zeigt ein Feld von Pixeln innerhalb des Bildfensters N, wobei die Pixel mit Dichteniveaus P&sub1; bis Pn einer gegebenen Farbkomponente in dem Bildfenster N gezeigt sind. Die Zahl n ist eine ganze Zahl, die die komplette Anzahl von Pixeln in dem Bildfenster N angibt. Die räumliche Differentiation der Dichteniveaus P&sub1; bis Pn kann durch eine Differentiationsmaske aus m x m Pixeln durchgeführt werden, wobei die Zahl m eine ganze Zahl größer als eins ist.
  • Die räumlichen Differentiale E&sub1; bis En, die so aus den Dichteniveaus P&sub1; bis Pn erhalten worden sind, werden in der Differentialbildebene 3a für jedes Pixel gespeichert, wie in Fig. 4B gezeigt. Da sich die Dichteniveaus der Pixel erheblich über die Kontur CT ändern und fast konstant sind in Bereichen, die sich von der Kontur CT unterscheiden, sind die Differentiale Ei (i = 1 - n) groß für Pixel auf der Kontur CT und klein für andere Pixel. Die Differentiale für die Y-Farbe, M-Farbe, C- Farbe und K-Farbe werden im Anschluß mit den Symbolen EFi (F = Y, M, C bzw. K: i = 1 - n) gekennzeichnet.
  • Die Auftretungshäufigkeit der Differentiale wird gezählt mit Hilfes eines Zählmittels (nicht gezeigt), um dadurch Differentialhistogramme für die entsprechenden Farbkomponenten der Y-, M-, C- und K-Farben zu erhalten, wie in den (Fig.en 5A bis 5D entsprechend gezeigt. Diese Differentialhistogramme werden in der Differentialhistogrammbildebene 3b gespeichert.
  • Für jede Farbkomponente berechnet die CPU 1 dann einen statistischen Wert, der den Streuungsgrad in der Verteilung der Differentiale EFi (i = 1 - n) darstellt. Wenn entsprechende statistische Werte für die YMCK-Farbkomponenten als SY, SM, SC bzw. SK ausgedrückt werden, können die statistischen Werte SF (F = Y, N, C und K) wie folgt sein:
  • Streuung =
  • oder
  • absolute Summe der Abweichungen =
  • wobei
  • Arbiträr kann einer der statistischen Werte, der sich von denen der Ausdrücke (1), (2) und (3) unterscheidet, auch in der gegenwärtigen Erfindung verwendet werden, solange dieser Wert den Sträuungsgrad ausdrückt.
  • Genauer gesagt repräsentieren die statistischen Werte SY, SM, SC und SK den Grad der Trennung oder die Doppelpeakaufspaltung in der Verteilung der Differentiale EY, EM, EC bzw. EK. Wenn die Kontur CT eine klare Kontur ist, konzentrieren sich die Differentiale EFi auf der Kontur CT auf große Werte, während die Differentiale, die nicht auf der Kontur CT liegen, sich auf kleine Werte konzentrieren. Als ein Resultat davon spaltet sich die Verteilung der Differentiale EFi in ein Paar von stark ausgeprägten Peaks auf. Auf der anderen Seite, wenn die Kontur CT eine unklare Kontur ist, verteilen sich die Differentiale EFi innerhalb eines breiten Bereiches, so daß ein Paar von schwach ausgebildeten Peaks oder nur ein einziger Peak in den Differentialhistogrammen auftaucht. Zusammenfassend ist zu sagen, daß die statistischen Werte SY, SM, SC und SK, die gemäß dem mathematischen Ausdruck (1) oder (2) berechnet werden, große Werte für klare Konturen und kleine Werte für unklare Konturen aufweisen.
  • Die Figuren 5A bis 5D zeigen Beispiele für entsprechende Histogramme der Differentiale EYi, EMi, ECi und EKi, wobei die horizontalen Achsen die Differentialwerte und die vertikale Achse die Auftretungshäufigkeit oder die Anzahl an Pixeln darstellen. Das Differentialhistogramm für die Y-Farbe weist ein Paar aus schwach ausgebildeten Peaks auf, und das für die M- Farbe hat im wesentlichen kein Peak. Ein Paar von stark ausgebildeten Peaks existiert in dem Differentialhistogramm für die C-Farbe, während lediglich ein Peak in dem Differentialhistogramm für die K-Farbe vorhanden ist. Daher werden die statistischen Werte SY, SM, SC und SK für die Verteilungen, die in den Figuren 5A bis 5B gezeigt sind, wie folgt abgeschätzt
  • SC > SY > SM > SK ... (4)
  • Wenn die Zahl T, die in dem Verfahrensschritt S4 bestimmt wird, 3 ist, werden die Farbbildkomponenten für die C-, Y- und M-Farben für die Konturerfassung gemäß der Reihenfolge des Ausdruckes (4) ausgewählt. In anderen Worten, die ausgewählte Anzahl von Farbkomponentenbildern wird in einer abfallenden Reihenfolge für die verschiedenen statistischen Werte ausgewählt. Die ausgewählten Farbkomponentenbilder werden im Anschluß "klarere T-Komponenten" gennant. Die statistischen Werte SY, SM, SC und SK, die in dem Verfahrensschritt S8 erhalten werden, werden in dem RAM 3 für die folgenden Verfahrensschritte gespeichert.
  • Die Zahl T kann zu diesem Zeitpunkt über die Tastatur 12 aktualisiert werden, und, falls aktualisiert, wird die neue Zahl T in dem RAM 3 anstelle der alten Zahl T gespeichert. Wenn die Zahl T nicht aktualisiert worden ist, wird die alte Zahl T konserviert und in den RAM 3 gehalten (Verfahrensschritt S9).
  • In dem nächsten Verfahrensschritt S10 wird das ausgewählte prozentuale Verhältnis α aus dem zweiten Codierer 14 geholt und in dem RAM 3 gespeichert. Kriterien für die Bestimmung des Wertes des prozentualen Verhältnisses α werden später erklärt.
  • Dann, in dem Verfahrensschritt S11, wird ein Farbkomponentenbild mit einem maximalen statistischen Wert aus den klareren T-Komponenten ausgewählt.
  • Wie oben beschrieben, ist das Farbkomponentenbild, das einen maximalen statistischen Wert aufweist, dasjenige, das die klarste Kontur unter den YMCK-Farbkomponentenbildern aufweist. Bei den in Fig. 5 gezeigten Beispielen wird das Farbkomponentenbild für die C-Farbe in dem Verfahrensschritt S11 ausgewählt.
  • (B-3) Binärisierung der Pixelniveaus und Erhalten des Konturbildes
  • In dem nächsten Verfahrensschritt S12 wird das prozentuale Verhältnis α aus dem RAM 3 ausgelesen. Die entsprechenden Anzahlen an Pixeln in dem Differentialhistogramm der ausgewählten Farbkomponente, d.h. für das C-Komponentenbild, werden der Reihe nach aufsummiert, von dem untersten Grenzwert der Differentialwerte an. Wenn der unterste und der oberste Grenzwert der Differentialwerte ausgedrückt wird als EL bzw. EH (Fig. 6) in dem Differentialhistogramm, und die Summe der Pixel bis zu einem zufälligen Wert Ea als na dargestellt wird, wird die Addition der Pixel solange durchgeführt, bis die folgende Bedingung erfüllt ist:
  • na / n ≥ α ... (5)
  • Wenn der Differentialwert Ea, bei welchem die Bedingung (5) zuerst erfüllt ist, als EA dargestellt wird, wird ein Schwellenniveau Eth, das in den folgenden Verfahrensschritten verwendet wird, durch den Wert EA festgelegt. Mit anderen Worten, das Schwellenniveau Eth ist so festgelegt, daß eine erste Summe POFF an Pixeln zwischen dem unteren Grenzwert EL und dem Schwellwert Eth und eine zweite Summe an Pixeln zwischen den Schwellenniveau Eth und dem oberen Grenzwert EH die folgende Bedingung erfüllt:
  • α = POFF / (PON + POFF) ...(6)
  • wobei
  • PON + POFF = n ...(7)
  • Das prozentuale Verhältnis α kann durch einen anderen Ausdruck festgelegt werden, solang das Differentialhistogramm in zwei Teile aufgeteilt wird, wobei die Grenzlinie dem prozentualen Verhältnis α entspricht. Eine der folgenden Definitionen oder Bedingungen (8) bis (10) kann, beispielsweise, verwendet werden.
  • α = PON / (PON + POFF) ...(8)
  • α = PON / POFF ...(9)
  • α = POFF / PON ...(10)
  • Das Schwellenniveau Eth, das so erhalten worden ist, wird in dem RAM 3 gespeichert.
  • Dann werden, bezüglich der ausgewählten Farbkomponente, die entsprechenden Differentiale der Pixel innerhalb des Bildfensters N aus der Differentialbildebene 3a ausgelesen. Die entsprechenden Differentiale werden mit dem Schwellenwert Eth verglichen, so daß ein logischer Wert "1" den Pixeln gegeben wird, deren Differentiale größer als das Schwellenniveau Eth sind, und der andere logische Wert "0" wird den Pixeln gegeben, deren Differentiale kleiner als das Schwellenniveau Eth sind, wobei die Pixel innerhalb des Bildfensters N in die binäre Form gebracht worden sind.
  • Die Binärisierung in dem bevorzugten Ausführungsbeispiel hat den folgenden Vorteil: Da das Schwellenniveau Eth so bestimmt ist, daß das Verhältnis der Pixel unterhalb des Schwellenniveaus zu allen Pixeln in dem Bildfenster N mit dem vorbestimmten prozentualen Verhältnis α zusammenfällt, wird das Schwellenniveau Eth zwischen den beiden Peaks eines Differentialhistogramms unabhängig vom individuellen Charakter des Bildes innerhalb des Bildfensters N gefunden. Wenn es, beispielsweise, gewünscht wird, daß die Konturpixel so aus den Pixeln innerhalb des Bildfensters N gewonnen werden, daß die Anzahl AX an Pixeln auf der Kontur CT (Fig. 7) und die entsprechenden Anzahlen AY, AZ an Pixeln auf beiden Seiten der Kontur CT die folgende Bedingung erfüllen:
  • AX / (AX + AY + AZ) = 20% ...(11)
  • Wird das prozentuale Verhältnis α auf 80/100 = 80 % in Übereinstimmung mit den Ausdrücken (6) und (11) gesetzt. In Antwort auf das prozentuale Verhältnis α = 80% wird das Schwellenniveau Eth auf einer relativen Skala als Eth = 70 für die Hoch-Differentialverteilung (Fig. 8A) und Eth = 30 für die Niedrig-Differentialverteilung (Fig. 8B) gefunden. Das Schwellenniveau Eth ist in dem Tal zwischen den beiden Peaks in beiden Fällen angeordnet, so daß Hoch-Differentialpixel und Niedrig- Differentialpixel voneinander mittels des Schwelleniveaus Eth unterschieden werden können. Das kommt daher, daß die Pixel in der Verteilung immer in dem Verhältnis 80:20 aufgeteilt werden.
  • Die Verteilung von Fig. 8A erscheint in dem Fall, in dem sich die Dichteniveaus über die Kontur drastisch ändern, während die Verteilung von Fig. 8B auftritt, wenn sich die Dichteniveaus langsam über die Kontur verändern. Daher kann gemäß dem gegenwärtigen Verfahren zum Bestimmen des Schwellenniveaus Eth eine optimale Binärisierung automatisch durchgeführt werden, selbst wenn die Kontur CT sowohl einen scharfen als auch einen unscharfen Teil aufweist. Wie aus der obigen Beschreibung zu verstehen ist, wird das prozentuale Verhältnis α gemäß einer gewünschten Rate, mit welcher Pixel in dem Bildbereich als Pixel auf der Kontur CT erkannt werden sollen, zuvor bestimmt.
  • Das Binärbild oder "ein erstes Binärbild", das so innerhalb des Bildfensters N erhalten worden ist, wird in dem Maskenspeicher 7 für jedes Pixel über eine Lese-Modifizier-Schreib- Handlung gespeichert. Das heißt, das Binärbild oder "ein zweites Binärbild", das in dem Maskenspeicher 7 gespeichert worden ist, wird aus demselben ausgelesen, und ein logisches Aufsummieren des ersten und des zweiten Binärbildes wird für jedes Pixel durchgeführt, um ein drittes Binärbild zu erhalten. Das dritte Binärbild wird in dem Maskenspeicher 7 anstelle des zweiten Binärbildes gespeichert (Verfahrensschritt S13). Da der Maskenspeicher 7 in dem Verfahrenssschritt S2 geleert worden ist, ist das zweite Binärbild in dem ersten Stadium ein "weißes" Bild, für welches alle Pixel einen "0"-Pegel aufweisen. Demgemäß fällt das dritte Binärbild, das bei der ersten Durchführung des Verfahrenssschrittes S13 erhalten wird, mit dem ersten Binärbild zusammen. Wie später beschrieben wird, wird der Verfahrenssschritt S13 T-mal wiederholt für die gegenwärtige Position des Fensters N. Der Verfahrenssschritt S13 zum Gewinnen der logischen Summe hat Bedeutung in der zweiten bis T-ten Wiederholung desselben, und der Vorteil davon wird später beschrieben werden.
  • Nachdem der Verfahrenssschritt S13 für die ausgewählte Komponente abgeschlossen ist, wird ein Farbkomponentenbild, das die Kontur CT mit der nächstklarsten Erscheinung unter den klareren T-Komponenten enthält, ferner durch Vergleichen der entsprechenden statistischen Werte miteinander und Finden des nächstgrößten unter denselben ausgewählt (Verfahrensschritt S14). In dem in den Figuren 5A bis 5D gezeigten Beispiel wird das Farbkomponentenbild für die Y-Farbe gemäß der Reihenfolge in der Ungleichung (4) ausgewählt. Da die Wahl der Farbkomponentenbilder in den Verfahrensschritten S11 und S14 insgesamt nur zweimal bis jetzt durchgeführt worden ist, kehrt das Verfahren zu dem Verfahrensschritt S12 über den Verfahrensschritt S15 für das Beispiel zurück, bei welchem die Zahl T drei beträgt.
  • Die Verfahrensschritte S12 bis S14 werden für die neue ausgewählte Komponente wiederholt, wobei das prozentuale Verhältnis α, das in dem vorangegangenen Schritt S11 gewonnen worden ist, auch in den Wiederholungsschritten verwendet wird. Ein neues Schwellenniveau Eth für die neu gewählte Komponente wird auf der Basis des prozentualen Verhältnisses α und des Differentialhistogrammes für die neu ausgewählte Komponente bestimmt. Ein Binärbild wird dann innerhalb des Bildfensters N mit der neu ausgewählten Komponente erzeugt, um in dem Maskenspeicher 7 über die Lese-Modifizier-Schreib-Handlung gespeichert zu werden. Die "ausgewählte Komponente" wird dann weiter aktualisiert in das Farbkomponentenbild für die M-Farbe, und die Verfahrensschritte S12 bis S14 werden weiter wiederholt.
  • Wenn die Verfahrensschritte S12 bis S14 für alle der klareren T-Komponenten, d.h. die Farbkomponentenbilder für die Y-, M- und C-Farben, vollendet worden ist, ist das Binärbild, das in dem Maskenspeicher 7 gespeichert ist, ein Binärkonturbild, das die Kontur CT innerhalb des Bildfensters N als eine logische Summe der entsprechenden Binärbilder, die von den YMC-Farbkomponentenbildern erhalten worden sind, darstellt. Fig. 9A zeigt schematisch das Binärkonturbild, das gegenwärtig in dem Maskenspeicher 7 gespeichert ist. Da die Konturerfassung der kompletten Kontur noch nicht abgeschlossen ist, ist lediglich ein Teil der Binärkontur in dem Maskenspeicher 7 gespeichert.
  • Die Vorteile des Verfahrensschrittes zum Erhalten der logischen Summe von den Binärbildern oder logischen Bildern wird nunmehr beschrieben. Einer der Vorteile basiert auf der Tatsache, daß eine Kontur eines Objektbildes manchmal auf einem Originalbild in der Form auftaucht, daß ein Teil der Kontur in einem der Farbkomponentenbildern auftaucht, während ein anderer Teil der Kontur in anderen der Farbkomponentenbildern auftaucht. Wenn die Kontur erfaßt oder gewonnen ist aus nur einem der Farbkomponentenbilder, kann die erfaßte Kontur eine Lücke oder eine Spalte darin aufweisen. Andererseits, wenn die Binärkonturbilder, die jeweils aus einer Vielzahl von Farbkomponentenbildern erhalten worden sind, miteindander über eine logische Aufsummierung kombiniert werden, werden entsprechende Teile der Konturen miteinander verbunden, wodurch eine komplette Kontur ohne Spalten erfaßt werden kann.
  • Der andere Vorteil ist, daß ein Teil der Kontur, der an einer Position des Bildfensters N erfaßt worden ist, glatt mit einem anderen Teil der Kontur verbunden sein kann, der an einer anderen Position des Bildfensters N erfaßt worden ist.
  • In dem nächsten Verfahrenssschritt S16 wird das Binärkonturbild aus dem Maskenspeicher 7 ausgelesen, um dem Anzeigesteuergerät 8 zugeführt zu werden. Das Anzeigesteuergerät 8 wandelt das Binärkonturbild in ein semitransparentes Farbbild um. Dann werden das Konturbild in einer semitransparenten Farbe und das Originalbild, das das Objektbild I enthält, auf dem Farbanzeigegerät 9 angezeigt, während ein Einstellen der Position stattfindet. Da das Konturbild in der semitransparenten Farbe vorliegt, kann die positionelle Beziehung zwischen dem Konturbild und dem Objektbild I einfach durch Betrachten des Farbanzeigegeräts 9 gefunden werden. Zu dem Zeitpunkt, an welchen die Konturerfassung nur für eine Position des Bildfensters N durchgeführt worden ist, ist das Konturbild, das mit dem Objektbild angezeigt wird, ein Teilbild der Kontur CT.
  • Das Verfahren kehrt dann wieder zu dem Verfahrenssschritt S5 zurück, während die Anzeige des Objektbildes und des erfaßten Teils des Konturbildes behalten werden. Die Bedienperson bewegt den Schreibstift 11 auf dem A/D-Umwandler 10, um dadurch das Bildfenster N entlang der Kontur CT zu bewegen. Nachdem das Bildfenster N die Position erreicht hat, an welcher der nächste Teil der Kontur CT in dem Bildfenster N auftaucht, drückt die Bedienperson den an dem Schreibstift 11 angebrachten Knopf. In Antwort auf die Druckbetätigung beginnt die CPU 1 damit, die Verfahrenssschritte S8 bis S16 wieder durchzuführen, wodurch der nächste Teil der Kontur CT, der innerhalb des Bildfensters N angeordnet ist, erfaßt wird. Das semitransparente Farbbild des erfaßten Bereichs wird zu dem angezeigten Bild auf dem Farbanzeigegerät 9 zugefügt.
  • Durch Wiederholen des oben angegebenen Verfahrens, während das Bildfenster N Schritt für Schritt entlang der Kontur CT bewegt wird, wie durch Pfeile in den Fig.en 3A bis 3D dargestellt, wächst das Konturbild in dem Maskenspeicher 7 Schritt für Schritt, wie in den Fig.en 9A bis 9C gezeigt. Wenn das Bildfenster N um das Objektbild I herum bewegt worden ist, wird das Konturbild in dem Maskenspeicher 7 eine geschlossene Schleife, wie in Fig. 9C gezeigt. Die Größe oder der Radius des Bildfensters N kann während der Ablauffolge der Konturerfassung geändert werden. Die Veränderungen des Radius der jeweiligen Kreise, die in Fig. 3c gezeigt sind, entsprechen der Änderung des Radius. Wenn der Radius auf einen relativ kleinen Wert gesetzt ist, kann der Schwellenwert Eth für jeden kleinen Schritt entlang der Kontur CT aktualisiert werden, wodurch die Binärisierung unter optimaler Auswahl des Schwellenniveaus Eth durchgeführt werden kann, selbst wenn das Dichteniveau auf der Kontur CT sich komplex verändert. Andererseits, wenn der Radius auf einen relativ großen Wert gesetzt worden ist, kann die komplette Kontur CT mit nur einer kleinen Bestimmungsanzahl unter Verwendung des Schreibstifts 11 abgedeckt werden, wodurch die Effizienz des Betriebs erhöht wird. Vorzugsweise wird der Radius gemäß der Krümmung der entsprechenden Teile der Kontur CT geändert.
  • Die Bereiche, die durch das Bildfenster N an einer entsprechenden Position festgelegt sind, d.h. die runden Bereiche in Fig. 3C, werden der Reihe nach ohne das Entstehen einer Lücke dazwischen miteinander verbunden, wodurch eine geschlossene Kette von kreisförmigen Bereichen schematisch gebildet wird. Dies kommt daher, daß die komplette Kontur CT durch komplettes Überdecken der Kontur CT mit kreisförmigen Bereichen erfaßt werden kann.
  • Wenn das Erfassen oder Gewinnen des Konturbildes abgeschlossen ist, gibt die Bedienperson ein Ende-Kommando über die Tastatur 12 oder den A/D-Umwandler 10 ein, um der CPU 1 anzuzeigen, daß das Erfassen abgeschlossen ist. Dann beginnt die CPU 1 damit, eine Unterroutine zum Auffüllen des inneren Bereichs (oder des äußeren Bereichs) der Kontur CT mit logischen Pegeln "1" durchzuführen. Jede der herkömmlichen Methoden kann in dem Verfahren zum Auffüllen eines begrenzten Bereichs in einem Speicher verwendet werden. Durch das Auffüllverfahren werden Bilddaten in dem Maskenspeicher 7 erhalten, die eine Ausschneidemaske darstellen. Die Ausschneidemaske kann zum elektronischen Ausschneiden des Objektbildes aus dem Originalbild verwendet werden. Die Ausschneidemaske kann durch Konvertierung der Kontur in eine Sequenz von Vektoren hergestellt werden. Andere Bildmasken, als die Ausschneidemaske, können aus dem Konturbild in dem Maskenspeicher 7 hergestellt werden.
  • C. Abwandlungen
  • Die Form des Bildfensters N kann ein Rechteck, ein Quadrat oder dergleichen sein. Das Bildfenster N kann in einer willkürlichen Art auf der Kontur sowie in der seriellen Anordnung entlang der Kontur bewegt werden. Doppelte Bestimmung des gleichen Teils der Kontur ist auch zugelassen.
  • Da der Maskenspeicher 7 so gesteuert wird, daß er ein Binärbild über eine logische Aufsummierung entgegennimmt, kann eine zusätzliche Linie oder Kurve in den Maskenspeicher 7 mit dem Schreibstift 11 und dem A/D-Umwandler 10 geschrieben werden. Wenn die Funktion des logischen Aufsummierens unmöglich gemacht wird, kann das komplette oder ein Teil des in dem Maskenspeicher 7 gespeicherten Konturbildes mit den Elementen 10 und 11 gelöscht werden.
  • Wenn zuvor festgestellt worden ist, daß die Kontur in einem der Farbkomponentenbilder klar genug ist, um als geschlossene Schleife erkannt zu werden, kann die Zahl T, die festlegt, wieviele Farbkomponentenbilder der Konturerfassung unterworfen werden, auf eins gesetzt werden, und ein Farbkomponentenbild wird für die Konturerfassung verwendet.
  • Wenn das Originalbild eher ein monochromes Bild als ein Farbbild ist, wird nur einer der Bildspeicher 5Y bis 5K zum Speichern des monochromen Bildes verwendet.
  • D. Gesamtstruktur und Funktion des bevorzugten Ausführungsbeispiels der Erfindung
  • Fig. 10 ist ein Blockdiagramm, das ein Bildverarbeitungssystem 200 gemäß einer bevorzugten Ausführungsform der gegenwärtigen Erfindung zeigt wobei Elemente, die gleich sind wie die der Fig. 1, oder denen entsprechen, mit den gleichen Bezugszeichen gekennzeichnet sind. Das Bildverarbeitungssystem 200 hat ein Maskenspeichersystem 70, das einen ersten, zweiten, dritten und vierten Maskenspeicher 71 bis 74 enthält. Die Maskenspeicher 71 bis 74 können als ein Differentialkonturspeicher 71, ein Fettringmusterspeicher 72, ein Arbeitsebenenspeicher 73 und ein Primärringmusterspeicher 74 gemäß ihrer jeweiligen Hauptfunktionen, die später beschrieben werden, bezeichnet werden. Obwohl ein Betriebsprogramm des Systems 200 zuvor in einem ROM 2, ähnlich wie für das System 100 (Fig. 1), gespeichert wird, werden die entsprechenden Inhalte des Betriebsprogramms für das System 100 und das System 200 sich teilweise voneinander unterscheiden.
  • Ferner hat ein Anzeigesteuergerät 8 eine Funktion des Steuerns eines Farbanzeigegeräts 9, so daß ein Cursor oder Target TG (Fig. 13A) auf dem Farbanzeigegerät 9 mit einem oder ohne ein erstes Bildfenster N&sub1; und ein zweites Bildfenster N&sub2; (Bildfenster) angezeigt wird. Das erste und das zweite Bildfenster N&sub1; und N&sub2; sind Kreise, deren entsprechende Mittelpunkte mit der Position des Targets TG, die bzw. das über einen A/D-Umwandler 10 und einen Schreibstift 11 festgelegt wird, zusammenfallen. Die anderen Funktionen des Anzeigesteuergeräts 8 sind ähnlich denen des mit Bezug auf die Fig.en 1 bis 9 beschriebenen Systems. Die entsprechenden Aufbauten und Funktionen 1, 3 bis 6, 12 bis 14 gleichen denen des besagten Systems.
  • E. Betrieb
  • Der Betrieb des Systems 200 wird mit Bezug auf die Fig.en 11 und 12A bis 12C beschrieben werden, wobei die Fig.en 12A bis 12C Subroutinen entsprechend den Verfahrensschritten S105, S106 bzw. S109 von Fig. 11 zeigen.
  • (E-1) Initiieren und Anzeigen des Oriainalbildes
  • Wie Fig. 11 zu entnehmen ist, wird das System 200 in Gang gesetzt und ein vorläufiges Bearbeiten durchgeführt mittels der Verfahrenssschritte S101 bis S104, die den Verfahrensschritten S1, S2, S3 bzw. S4 von Fig. 2 entsprechen. All die Maskenspeicher 71 bis 74 werden in dem Verfahrenssschritt S102 geleert.
  • Obwohl nur das Originalbild auf dem Farbanzeigegerät 9 in dem ersten Stadium angezeigt wird (Verfahrenssschritt S103), wird das Steuern der Anzeige so parallel mit den folgenden Schritten S105 bis S109 durchgeführt, daß die entsprechenden Bilder, die in dem Differentialkonturspeicher 71, dem Fettringmusterspeicher 72, dem Arbeitsebenenspeicher 73 und dem Bildspeicher 5 gespeichert sind, auf dem Farbanzeigegerät 9 angezeigt werden, während ein Einstellen der Position durchgeführt wird, um ein gegenseitiges Überlappen zu erhalten. Das überlappte Bild, das angezeigt wird, wird alle 1/30 Sekunden, beispielsweise, aktualisiert, gemäß den Bildern, die zu diesem Zeitpunkt in diesen Speichern gespeichert sind, wodurch das angezeigte Bild Veränderungen der gespeicherten Bilder folgt. Die Wiederholung des Anzeigens wird durch das Anzeigesteuergerät 8 kontrolliert.
  • Wie später im Detail beschrieben werden wird, sind die Maskenspeicher 71, 72 und 74 betriebsbereit, um ein Differentialkonturbild (Fig. 130), ein Fettringmuster (Fig. 13E) bzw. ein Primärringmuster (Fig. 13D) zu speichern, und der Arbeitsebenenspeicher 73 dient als Arbeitsebene, in welcher mehrere Bilder (Fig.en 14B bis 14E) bearbeitet werden, um ein Konturbild zu erhalten. Daher werden das Differentialkonturbild, das Fettringmuster, ein Bild, das bearbeitet wird, und das Originalbild miteinander in Überlappung gebracht auf dem Bildanzeigegerät 9.
  • Um die Situation zu vermeiden, in welcher Teile dieser Bilder, die für die Konturerfassung relevant sind, hinter den anderen Bildern verborgen sind, können diese Bilder gemäß einer vorherbestimmten Prioritätsanordnung auf dem Anzeigegerät überlappt werden. Vorzugsweise ist die Prioritätsanordnung derart, daß zuerst das Differentialkonturbild, dann das fette Ringmuster, darauf das Bild, das in dem Hauptmaskenspeicher 73, der als Arbeitsebene dient, bearbeitet wird, und schließlich das Originalbild auftaucht. Außerdem können die entsprechenden Bilder in den Maskenspeichern 71, 73 und 72 auf dem Farbanzeigegerät 9 in semitransparenten Farben angezeigt werden.
  • (E-2) Erzeugen eines Differentialkonturbildes und von Ringmustern
  • In dem nächsten Verfahrensschritt 105 werden ein Differentialkonturbild DC (Fig. 13C) und Ringmuster RP1, RP2 (Fig.en 13D und 13E) gemäß der Subroutine, die in Fig. 12A gezeigt ist, erzeugt. Wie aus einem Vergleich von Fig. 13A mit Fig. 2 zu entnehmen ist, entsprechen die Verfahrenssschritte S501 bis S513 in Fig, 12A den Verfahrensschritten S5 bis S15 in Fig. 2, außer bezüglich einiger Punkte, wodurch die Verfahrensschritte S501 bis S513 als ein Verfahren zum Erhalten des Differentialkonturbildes DC mittels im wesentlichen des gleichen Prinzips wie bei dem System der Fig.en 1 bis 9 dienen.
  • Eine der Unterschiede zwischen den beiden Arbeitszyklen ist, daß das erste und das zweite Bildfenster N1 und N2 (Fig. 13A), zusammen mit dem Target TG, auf dem Farbanzeigegerät 9 angezeigt werden. Der Radius des ersten Bildfensters N&sub1; wird mittels des ersten Codierers 13 bestimmt, während der Radius des zweiten Bildfensters N&sub2; größer als der des ersten Bildfensters N&sub1;, um einen vorherbestimmten kleinen Wert, ist, der, beispielsweise, einmal, zweimal oder dreimal die Pixelgröße auf dem Bildanzeigegerät 9 ist. Wenn das Target TG gemäß der Bewegung des Schreibstifts 11 bewegt wird, folgen die Bildfenster N&sub1; und N&sub2; dem Target TG auf dem Farbanzeigegerät 9, da die entsprechenden Mittelpunkte der Bildfenster N&sub1; und N&sub2; stets an der Stelle des Targets TG angeordnet sind.
  • Ein anderer Unterschied ist, daß die Verfahrenssschritte S505 bis S513 durchgeführt werden, während das erste Bildfenster N&sub1; und der Differentialkonturspeicher 71 als das Bildfenster N (Fig.en 3A bis 3C) bzw. den Maskenspeicher 7 betrachtet werden. Ferner wird das erste Bildfenster N&sub1; zum Bestimmen von in dem Primärringmusterspeicher 74 zu speichernden Daten sowie zum Bestimmen entsprechender Teilbereiche zum Erzeugen der Differentialkontur verwendet. Daher wird, wenn die Verfahrensschritte S501 bis S513 für eine gegenwärtige Position des ersten Bildfensters N&sub1; wiederholt worden sind, ein Teil des Differentialkonturbildes, das in dem ersten Bildfenster N&sub1; existiert, in dem Differentialkonturspeicher 71 erhalten.
  • Andererseits werden die Verfahrenssschritte S514 und S515 in der Subroutine von Fig. 12A bereitgestellt. In dem Verfahrensschritt S514 wird ein Bitmuster, bei welchem alle Pixel, die in dem ersten Bildfenster N&sub1; existieren, auf den Wert "1" gezwungen, erzeugt, und ein logisches Aufsummieren wird für jedes Pixel zwischen dem so erzeugten Bitmuster und einem "alten Bit-Bild" das in dem Primärringmusterspeicher 74 gespeichert ist, durchgeführt, um ein "neues Bit-Bild" zu erzeugen. Da der Primärringmusterspeicher 74 in dem Verfahrenssschritt S102 geleert worden ist, ist das "alte Bit-Bild" vor dem ersten Durchführen des Verfahrensschritts S514 ein "weißes Bild", in welchem alle Bits oder Pixel das logische Niveau "0" einnehmen, so daß das "neue Bit-Bild", was durch das erste Ausführen des Verfahrenssschrittes S514 erhalten wird, lediglich das Bild eines "schwarzen" Kreises ist, der dem inneren Bereich des ersten Bildfenster N&sub1; an der gegenwärtigen Position desselben entspricht. Das neue "Bit-Bild" wird dann in dem Primärringmusterspeicher 74 anstelle des "alten Bit-Bildes" gespeichert. Der Verfahrenssschritt S514 kann mittels einer Lese-Modifizier- Schreib-Operation für den Primärringmusterspeicher 74 durchgeführt werden.
  • Der Verfahrenssschritt S515 ist ähnlich dem Verfahrensschritt S514, außer bezüglich des Unterschiedes, daß das zweite Bildfenster N&sub2; und der Fettringmusterspeicher 72 anstelle des Bildfensters N1 bzw. des Speichers 74 verwendet werden. Daher wird das Bild eines anderen "schwarzen" Kreises, der dem inneren Bereich des zweiten Bildfensters N2 entspricht, in dem Fettringmusterspeicher 72 erhalten, wenn die erste Ausführung des Arbeitsschrittes S514 abgeschlossen worden ist.
  • Die in Fig. 12A gezeigte Subroutine wird wiederholt, während der Bewegung des Targets TG Schritt für Schritt entlang der Kontur CT, bis die komplette Kontur CT mit einer Spur des ersten Bildfensters N&sub1; (siehe Fig. 13B) überdeckt ist. Das Verfahren des Abfahrens der Kontur CT wird auf gleiche Weise wie bei dem Ausführungsbeispiel der Figuren 1 bis 9 durchgeführt. Wenn die komplette Kontur CT abgefahren worden ist, wird das Differentialkonturbild DC (Fig. 13C) in dem Differentialkonturspeicher 71 erhalten. Gleichzeitig werden das Primärringmuster RP1 (Fig. 13D) und das fette Ringmuster RP2 (Fig. 13E) in dem Primärringmusterspeicher 74 bzw. dem Fettringmusterspeicher 72 gespeichert, da das logische Aufsummieren der "schwarzen Kreise" für entsprechende Bildfensterpositionen ein Ringmuster liefert, das den Verlauf des entsprechenden Bildfensters angibt. Entsprechend der Tatsache, daß der Radius des zweiten Bildfensters N&sub2; größer als der des ersten Bildfensters N&sub1; ist, ist die Dicke des fetten Ringmusters RP2 größer als die des Primärringmusters RP1. Es ist daher festzuhalten, daß das fette Ringmuster RP2 komplett das Primärringmuster RP1 überdeckt und das Primärringmuster RP1 überdeckt komplett das Differentialkonturbild DC, wenn diese Bilder sich abstrakt in einer gleichen Bildebene überlagern, während des Einstellens der entsprechenden Positionen dieser Bilder zueinander. Diese Beziehungen werden in den folgenden Verfahrensschritten verwendet.
  • Da die Subroutine von Fig. 12A nicht in dem Arbeitsebenenspeicher 73 arbeitet, ist kein Bild in dem Arbeitsebenenspeicher 73 zu der Zeit, wenn die Subroutine von Fig. 12A gerade abgeschlossen worden ist. Wenn das so erhaltene Differentialkonturbild aufgrund der Erfassung von Fehlern oder Minderwertigkeiten des Originalbildes einen Defekt hat, gibt die Bedienperson ein Kommando zum Korrigieren ein, welches in dem Verfahrensschritt S502 erfaßt wird, und dann korrigiert die Bedienperson den Defekt durch manuelles Betätigen des Schreibstiftes 11 (Verfahrenssschritt S503)
  • Wenn ein gewünschtes Differentialkonturbild erhalten worden ist, gibt die Bedienperson ein Ende-Kommando zum Beenden der Subroutine von Fig. 12A ein, und in Antwort darauf kehrt das Verfahren zu der Hauptroutine (Fig. 11) über den Verfahrensschritt S504 zurück.
  • (E-3) Erzeugen eines zusammengesetzten Bildes
  • Der nächste Verfahrenssschritt S106 (Fig. 11) ist auf das Erzeugen eines zusammengesetzten Bildes CI (Fig. 14E) über das Zusammenstellen und teilweise Löschen von Bildern gerichtet, wobei die Details dieses Arbeitsschrittes in den Fig.en 12B und 14A bis 14E gezeigt sind. Fig. 14A ist die gleiche Darstellung wie Fig. 13C und wird bereitgestellt, um die Beziehung zwischen dem Differentialkonturbild DC und den anderen in den Fig.en 14B bis 14E gezeigten Bildern klarzustellen. In dem Verfahrenssschritt S601 (Fig. 12B) wird das fette Ringmuster RP2, das in dem Fettringmusterspeicher 72 gespeichert ist, an den Arbeitsebenenspeicher 73 übergeben, um dort gespeichert zu werden (Fig. 14B). Dann wird das fette Ringmuster RP2 in dem Arbeitsebenenspeicher 73 teilweise gelöscht mit dem Differentialkonturbild DC (Fig. 14A), um dadurch das fette Ringmuster RP2 in einen inneren Ring RP2IN und einen äußeren Ring RP2OUT (Fig. 14C) auf zuteilen. Das teilweise Löschen kann durch ein "Exklusives ODER" der entsprechenden Bitdaten in dem Differentialkonturbild DC und dem fetten Ringmuster RP2 für jedes Pixel durchgeführt werden, während des Ausrichtens ihrer entsprechenden Bildebenen zueinander. Das Bild, das den inneren Ring RP2IN und den äußeren Ring RP2OUT enthält, wird in dem Arbeitsebenenspeicher 73 (Verfahrenssschritt S602) durch Ersetzen des fetten Ringmusters RP2 in dem Arbeitsebenenspeicher 73 durch das Paar der Ringe RP2IN und RP2OUT gespeichert. Wie in Fig. 14C gezeigt, werden der innere Ring RP2IN und der äußere Ring RP2OUT durch eine Lücke DC voneinander getrennt, die einer binären Inversion oder Umkehrung des Differentialkonturbildes DC entspricht.
  • Die Fig.en 15A bis 15E sind vergrößerte Diagramme, die jeweils Details der Teilbereiche PA1 bis PA5 der in den Fig.en 14A bis 14E jeweils gezeigten Bilder darstellen. An der Stelle, an welcher das Differential der Originalbilddaten relativ klein ist, treten manchmal feine Löcher PH (Fig. 15A) auf dem Differentialkonturbild DC auf, und dem entsprechend existieren "schwarze" feine Löcher PH (Fig. 15C) in der Lücke . Diese feinen Löcher PH werden mittels der folgenden Verfahrensschritte eliminiert.
  • In dem nächsten Verfahrenssschritt S603 bewegt die Bedienperson das Target TG an eine beliebige Stelle auf dem äußeren Ring RP2OUT mit dem Schreibstift 11, während des Beobachtens des Targets TG, das auf dem Farbanzeigegerät 9 angezeigt wird. Nachdem die Bedienperson bestätigt hat, daß das Target TG auf dem äußeren Ring RP2OUT ist, drückt die Bedienperson den an dem Schreibstift 11 angebrachten Knopf, was in dem Verfahrensschritt S604 erfaßt wird. Dann löscht die CPU 1 den äußeren Ring RP2OUT aus dem Arbeitsebenenspeicher 73 (Fig. 14D) über die Routine, gemäß der das Löschen oder Entfernen von der Position des Targets TG aus gestartet wird. Alternativerweise kann der innere Ring RP2IN anstelle des äußeren Rings RP2OUT gelöscht werden.
  • Da das Löschungsverfahren äquivalent zu einem Verfahren des Auffüllens aller Bereich auf dem äußeren Ring RP2OUT mit logischen "0" oder "weißen" Pixeln ist, kann das Löschungsverfahren mit irgendeiner Methode durchgeführt werden, die zum Füllen eines gegebenen Bereichs in einem Bildspeicher etabliert ist. Beispielsweise kann eine der folgenden Verfahren verwendet werden:
  • (1) Verfahren zum Füllen eines gegebenen Bereich mittels eines elastischen Stabs
  • Das Verfahren ist von H. Lieberman in "How to Color in Coloring Book", SIGGRAPH '78, Seite 111, (August 1978) offenbart. Bei diesem Verfahren wird ein gegebener Bereich mit "einem elastischen Stab" in der Richtung überstrichen, die senkrecht zu der Längsrichtung des elastischen Stabs ist. Die Endpunkte des elastischen Stabs werden entlang der Kontur des gegebenen Bereichs geführt, und die Länge des elastischen Stabs ist variabel in Antwort auf den Abstand zwischen den Endpunkten. Wenn der elastische Stab als ein Auslöschungsstab funktioniert, wird das Bild in dem gegebenen Bereich nach und nach gelöscht oder wegradiert, während der elastische Stab über dem gegebenen Bereich hinwegstreicht.
  • (2) Verfahren zum Füllen eines gegebenen Bereichs durch folgendes Umgrenzen eines gegebenen Bereichs
  • Bei diesem Verfahren, wie zum Bildlöschen modifiziert, wird ein Löschungspunkt so bewegt, daß er der Umgrenzung eines gegebenen Bereichs folgt, und dann wird der innere Bereich des gegebenen Gebiets durch Rasterabtasten gelöscht. Dieses Verfahren ist von Y. Suenaga in "Collection of Papers", Vol. J68- D, Nr. 4, Seite 465, April 1985, The Institute of Electronics and Communication of Japan, offenbart.
  • (3) Basisfüllungsverfahren
  • Gemäß dem Basisfüllungsverfahren wird einer der Punkte, die mit vier Richtungsverbindungen auf einem gegebenen Bild miteinander verbunden sind, als ein Samenpunkt ausgewählt, und Pixel, die mit dem Samenpunkt verbunden sind, werden nach und nach in solche einer gewünschten Farbe umgewandelt. Wenn das Basisfüllungsverfahren so modifiziert ist, um die Pixel auf dem gegebenen Bild in "weiße" Pixel oder Pixel mit einem logischen "0"-Pegel umzuwandeln, kann dieses Verfahren zum Löschen des äußeren Rings RP2OUT verwendet werden.
  • Die Löschungsgeschwindigkeit für den äußeren Ring RP2OUT wird durch den ersten Codierer 13 bestimmt, und das Löschen in dem Arbeitsebenenspeicher 73 wird mit der bestimmten Geschwindigkeit durchgeführt. Genauer gesagt, die Löschungsroutine wird unter Geschwindigkeitskontrollierung mit einem Warteprogramm (nicht gezeigt) durchgeführt, das in dem Verfahrensschritt S605 bereitgestellt wird, und die Wartezeit von dem Warteprogramm wird verkürzt oder verlängert proportional zu der bestimmten Geschwindigkeit. Wie in den Fig.en 14D und 15D gezeigt, besteht das Bild RI, das nach dem Löschungsverfahren zurückbleibt, aus dem inneren Ring RP2IN und den umgekehrten feinen Löchern , und das übrigbleibende Bild RI wird in dem Arbeitsebenenspeicher 73 anstelle des vorherigen, in Fig. 14D gezeigten Bildes gespeichert.
  • Da die Größe des zweiten Bildfensters N&sub2; so ausgewählt ist, daß sie um ein oder mehrere Pixel größer als die des ersten Bildfensters N&sub1; ist, ist die Weite oder Dicke des äußeren Rings RP2OUT nicht kleiner als die Pixelgröße, selbst wenn das Differentialkonturbild DC an einem Bereich nahe der Fensterkante des ersten Bildfensters N&sub1; erfaßt worden ist. Daher wird der äußere Ring RP2OUT nicht in eine Vielzahl von Teilen, die nicht miteinander verbunden sind, aufgeteilt, und das Löschen des äußeren Rings RP2OUT kann durch das Bestimmen nur eines Punktes, von dem aus das Löschen starten soll, durchgeführt werden. Wenn das zweite Bildfenster N&sub2; nicht verwendet wird und das in Fig. 14C gezeigte Bild auf der Grundlage des Primärringmusters RP1 anstelle des fetten Ringmusters RP2 erhalten wird, kann der äußere Ring RP2OUT in nicht miteinander verbundene Teile aufgeteilt werden, so daß zwei oder mehr Punkte festgelegt werden müssen als Ausgangspunkte für das Löschen. Dies ergibt sich daraus, daß die oben angegebenen Verfahren zum Füllen eines gegebenen Bereichs (oder zum Löschen eines Bildes in einem gegebenen Bereich) an einen verbundenen Bereich angepaßt sind, und sie sollten für jeden einzelnen, verbundenen Bereich wiederholt werden während entsprechende Ausgangspunkte festgelegt werden, in dem Fall, in welchem die Verfahren für eine Vielzahl von nicht miteinander verbundenen Bereichen angewendet werden.
  • Andererseits können der äußere Ring RP2OUT und der innere Ring RP2IN über eine Kette aus umgekehrten kleinen Löchern miteinander verbunden sein, wenn die kleinen Löcher PH in einem Bereich mit einer hohen Konzentration existieren. In solch einem Fall dringt die Löschungsfront in den inneren Ring RP2IN durch die Kette der umgekehrten kleinen Löcher ein, wodurch der innere Ring RP2IN ebenfalls der Löschung unterworfen wird, entgegen dem Willen der Bedienperson. Um ein nicht gewünschtes Löschen zu vermeiden, wird das Bild in dem Arbeitsebenenspeicher 73, dessen Teile gelöscht werden, auf dem Farbanzeigegerät 9 parallel zu dem Lösungsverfahren angezeigt. Vorzugsweise wird die Löschungsgeschwindigkeit auf einen niedrigen Wert gesetzt, so daß das Fortschreiten der Löschung sorgfältig von der Bedienperson beobachtet werden kann. Die Bedienperson beobachtet das Bild auf dem Farbanzeigegerät 9, und wenn sie feststellt daß die Löschungsfront in den inneren Ring RP2IN über die Brücke oder Kette der umgekehrten kleinen Löcher eintritt, gibt die Bedienperson ein Stop-Kommando zum Beenden des Löschungsverfahrens ein. Die Brücke oder Kette der umgekehrten kleinen Löcher entspricht einem Spalt oder der Lücke .
  • Beim Erfassen des Stop-Kommandos (Verfahrenssschritt S606) beendet die CPU 1 das Löschungsverfahren, um in die Hauptroutine zurückzukehren. Dann wird die Existenz der Brücke oder des Spaltes in dem Verfahrenssschritt S107 erfaßt, und das Bild in dein Arbeitsebenenspeicher 73 wird komplett gelöscht oder geleert in dem Verfahrenssschritt S108, um zu dem Verfahrensschritt S105 zurückzukehren.
  • In dem zurückgekehrten Verfahrenssschritt S105 kann das prozentuale Verhältnis α geändert werden, um die Empfindlichkeit bei dem Erfassen des Differentialkonturbildes zu verändern. Die Zahl T kann auch zum Herabsetzen der Anzahl der kleinen Löcher PH geändert werden. Alternativerweise können die Bilddaten für den Bereich, der den Spalt umfaßt, durch manuelles Betätigen des Schreibstifts 11 korrigiert werden. In dem Fall, in welchem die Löschungsgeschwindigkeit in dem Verfahrens schritt S106 langsam genug für die Bedienperson ist, um die Position des Spaltes durch Finden des Eindringungsweges der Löschungsfront zu kennen, kann die Bedienperson einfach das Differentialkonturbild DC korrigieren, um den Spalt zu eliminieren.
  • Andererseits, wenn kein Spalt existiert und das Löschungsverfahren ohne Unterbrechungen abgeschlossen worden ist, wird ein logisches Aufsummieren des übrigbleibenden Bildes RI (Fig.en 14D und 15D), das in dem Arbeitsebenenspeicher 73 gespeichert ist, und dem Differentialkonturbild DC (Fig. 14A), das in dem Differentialkonturspeicher 71 gespeichert ist, durchgeführt, um dadurch das zusammengesetzte Bild CI (Fig. 14E) in dem Verfahrensschritt S607 zu erhalten. Nachdem das zusammengesetzte Bild CI in dem Arbeitsebenenspeicher 73 anstelle des übrigbleibenden Bildes RI gespeichert worden ist, kehrt das Verfahren zu der Hauptroutine zurück.
  • Bezüglich des Verfahrenssschrittes S607 ist zu bemerken, daß die feinen Löcher PH (Fig. 15A) in dem Differentialkonturbild DI komplett durch die die umgekehrten feinen Löcher (Fig. 15D) in dem übrigbleibenden Bild RI durch logisches Aufsummieren kompensiert werden. Demgemäß besteht das zusammengesetzte Bild CI, das in den Fig.en 14E und 15E gezeigt ist, aus dem inneren Ring RP2IN und einer kompensierten Differentialkontur CC, die keine feinen Löcher aufweist, wie in Fig. 15E gezeigt. In einem logischen Ausdruck kann das zusammengesetzte Bild CT wie folgt dargestellt werden:
  • CI = DC + RI
  • = (CC + PH) + (RP2IN + )
  • = CC + RP2IN,
  • wobei das Symbol "+" für ein logisches Aufsummieren steht. Die kompensierte Differentialkontur CC repräsentiert die Kontur CT (Fig. 13A) des Objektbildes I mit einer Breite, die ein bißchen größer als die der Kontur CT ist, aufgrund der Differentiation, die zum Erhalten des Differentialkonturbildes DC durchgeführt worden war.
  • (E-4) Erzeugen eines Konturbildes
  • Nachdem das zusammengesetzte Bild CI erhalten worden ist, schreitet das Verfahren zu dem nächsten Verfahrenssschritt S109 (Fig. 11) fort, dessen Details in Fig. 120 gezeigt sind. In dem ersten Verfahrenssschritt S901 von Fig. 12C wird das zusammengesetzte Bild CI um eine vorherbestimmte Breite ausgedünnt, die, beispielsweise, einmal, zweimal oder dreimal der Pixelgröße entspricht. Ein so erhaltenes, ausgedünntes Bild (nicht gezeigt) wird in dem Arbeitsebenenspeicher 73 anstelle des zusammengesetzten Bildes CI gespeichert. Es ist zu bemerken, daß das Ausdünnungsverfahren für das zusammengesetzte Bild 01 für die Außenseite desselben durchgeführt wird, wobei die "Außenseite" der Bildbereich, der die Kontur umgibt, ist.
  • Einer der Gründe, warum das zusammengesetzte Bild CI einer Ausdünnungshandlung unterworfen wird, ist, daß die Breite der kompensierten Differentialkontur CO größer als die der Kontur CT ist, und es ist bevorzugt, die kompensierte Differentialkontur CC zum Erhalten einer originalgetreuen Kontur CT aus zudünnen. Der andere Grund basiert auf einem Merkmal der visuellen Wahrnehmung beim Beobachten eines Konturbildes. Das bedeutet, ein Konturbild kann klarer von einem Beobachter in dem Fall erkannt werden, in welchem das Konturbild an einer Stelle, die etwas innerhalb der Originalkontur liegt, wiedergegeben wird, im Vergleich zu dem Fall, in welchem die Bildkontur gerade auf den Positionen der Originalkontur wiedergegeben wird.
  • Unter diesen Umständen wird das Ausdünnungsverfahren so durchgeführt, daß nur der äußere Kantenbereich des zusammengesetzten Bildes CI, das heißt, nur der Bereich, der der kompensierten Differentialkontur CT entspricht, ausgedünnt wird, während der innere Kantenbereich erhalten bleibt. Genauer gesagt, die Pixel, die auf den Kanten des zusammengesetzten Bildes CI existieren, werden durch einen Vierrichtungs- oder Achtrichtungsverbindungsalgorithmus, der gut bekannt ist im Stand der Technik, erfaßt. Für jedes der erfaßten Kantenpixel wird auf das entsprechende Pixel in dem Primärringmusterspeicher 74 Bezug genommen. Es ist zu bemerken, daß das fette Ringmuster RP2 (Fig. 13E) breiter als das Primärringmuster RP1 (Fig. 13D) sowohl bezüglich der inneren als auch äußeren Kanten desselben ist, aufgrund der Bedingung, gemäß der die Größe des zweiten Bildfensters N&sub2; größer als die des ersten Bildfensters Nτ ist, und daher ist die Innenkante des zusammengesetzten Bildes CI (Fig. 14E) stets außerhalb des Primärringmusters RP1, während die Außenkante des zusammengesetzten Bildes CI stets mit derselben zusammenfällt. Demgemäß, wenn das Pixel in dem Primärringmusterspeicher 74, das dem erfaßten Kantenpixel des zusammengesetzten Bildes CI entspricht, den logischen Wert "1" hat, wird festgestellt, daß das erfaßte Kantenpixel ein Pixel ist, das in dem Außenkantenbereich des zusammengesetzten Bildes CI existiert. Andererseits hat das entsprechende Pixel in dem Primärringmusterspeicher 74 das logische "0"-Niveau, wobei das erfaßte Kantenpixel ein Pixel ist, das auf dem inneren Kantenbereich existiert. Nur die erfaßten Kantenpixel, die auf dem Außenkantenbereich existieren, werden dem Ausdünnungsverfahren unterworfen, weshalb nur das zusammengesetzte Bild CI nur von der äußeren Konturseite oder der Peripherieseite desselben ausgedünnt wird.
  • In dem nächsten Verfahrenssschritt S903 (Fig. 12C) werden die äußeren und inneren Kantenbilder EI1, EI2 (Fig. 16A) des ausgedünnten Bildes aus dem ausgedünnten Bild, das in dem Arbeitsebenenspeicher 73 gespeichert ist, gewonnen. Das Gewinnungsverfahren kann durch ein Vierrichungs- oder Achtrichtungsverbindungsalgorithmus durchgeführt werden, der zum Erfassen von Kanten eines Binärbildes etabliert worden ist. Die so erhaltenen Kantenbilder EI1 und EI2 werden in dem Arbeitsebenenspeicher 73 anstelle des ausgedünnten Bildes TI gespeichert.
  • Das fette Ringmuster RP2, das in dem Fettringmusterspeicher 72 gespeichert ist, wird ebenso der Routine zum Gewinnen der äußeren und inneren Kantenbilder XD1, XD2 daraus (Fig. 16B) in dem Verfahrenssschritt S903 unterworfen. Die Gewinnungsroutine kann mittels des Vierrichtungs- oder Achtrichtungsverbindungsalgorithmus, der oben angegeben worden ist, durchgeführt werden, und die gewonnenen Kantenbilder XD1 und XD2 werden in dem Fettringmusterspeicher 72 anstelle des fetten Ringmusters RP2 gespeichert.
  • Dann wird das erste Kantenpaar, das aus den Kantenbildern EI1 und EI2 besteht, mit dem zweiten Kantenpaar, das aus den Kantenbildern XD1 und XD2 besteht, verglichen, wodurch ein Teil des ersten Paars, der das zweite Paar überlappt, entfernt wird oder auf das logische "0"- Niveau in dem Arbeitsebenenspeicher 73 gezwungen wird (Verfahrenssschritt S904). Da sowohl das innere Kantenbild EI2 als auch das innere Kantenbild XD2 an einer gemeinsamen Position erzeugt worden sind, das heißt, an der inneren Kante des fetten Ringmusters RP2, überlappen sie miteinander, und das innere Kantenbild EI2 wird in dem Arbeitsebenenspeicher 73 entfernt. Andererseits wurden die äußeren Kantenbilder EI1 und XD1 an unterschiedlichen Positionen erzeugt und sie überlappen nicht miteinander. Demgemäß bleibt nur das äußere Kantenbild EI1 nach dem teilweisen Entfernen unter Verwendung der Kantenbilder XD1 und XD2 übrig. Das äußere Kantenbild EI1, das in dem Arbeitsebenenspeicher 73 zurückbleibt, ist genau ein Konturbild CI (Fig. 16C) gemäß der gegenwärtigen Erfindung. Die gestrichelte Linie in Fig. 16C zeigt die Positionen der fetten Ringmuster RP2 als Referenz, aber dadurch wird keine tatsächliche Existenz in dem Arbeitsebenenspeicher 73 dargestellt.
  • Wenn das Konturbild CI zum Herstellen einer Maske, zum Beispiel eine Ausschneidmaske oder einer Fotomaske, verwendet wird, wird der Innenbereich des Konturbildes CI mit dem logischen Pegel "1" gefüllt. Die so erhaltenen Maskendaten werden zu einem Bildaufzeichnungsgerät, wie ein Scanner, in der Form von Binärbilddaten geliefert, wobei ein Maskenbild auf einem Aufzeichnungsmedium, wie ein fotoempfindlicher Film, aufgezeichnet wird.
  • Gemäß dem bevorzugten Ausführungsbeispiel werden feine Löcher in dem Differentialkonturbild kompensiert, und ein Konturbild ohen feine Löcher kann erhalten werden. Ferner, selbst wenn ein Differentialkonturbild einen Spalt aufweist, wird der Spalt leicht durch Beobachten des Bilddatenverarbeitens mittels eines Farbanzeigegeräts 9 aufgefunden. Als ein Resultat wird verhindert, wie in Fig. 17 gezeigt, daß ein Konturbild CI feine Löcher PH hat und eine Konturlinie CL in zwei oder mehrere Arme aufgeteilt wird, selbst wenn das Konturbild CI durch ein Konturbildausdünnungsverfahren ausgedünnt worden ist. Daher kann ein mühsames Arbeiten zum Kompensieren der feinen Löcher PH durch einen manuellen Betrieb vermieden werden.
  • F. Modifikation des bevorzugten Ausführungsbeispiels
  • Die Verfahrenssschritte S902 bis S904 können durch ein Konturverfolgungsverfahren ersetzt werden, wie folgt In dem Konturverfolgungsverfahren werden die Daten, die den Ausgangspunkt, der in den Verfahrensschritten S603 und S604 (Fig. 12B) festgelegt worden war, erhalten. Nachdem der Verfahrensschritt S901 abgeschlossen worden ist, wird ein Rasterabtasten des Arbeitsebenenspeichers 74 von dem Ausgangspunkt aus gestartet. Wenn das Rasterabtasten die Kante des zusammengesetzten Bildes CI an einem Erreichungspunkt erreicht, wird ein Verfahren zum Folgen der Kante von dem Erreichungspunkt gestartet. Das Verfolgungsverfahren wird durch Erfassen der Pixel, die eine bestimmte Verbindung aufweisen, nach und nach solange fortgeführt, bis das zusammengesetzte Bild CI entlang der Kante abgerundet ist, während entsprechende Koordinaten auf den Kanten spezifiziert werden. Eine Reihe von Koordinaten oder verketteten Codierungen, die die Kantenpixeln ausdrücken, werden als Daten verwendet, die das Konturbild CI angeben, was zum Herstellen einer Ausschneidemaske durch Schneiden eines Abschälungsfilms mittels eines Schneidedruckers hilfreich ist. Solch ein Abschälfilm selbst ist gut auf dem Gebiet des fotografischen Verarbeitens bekannt.
  • Da der Ausgangspunkt, der in den Verfahrensschritten S603 und S604 bestimmt wird, auf dem äußeren Ring RP2OUT liegt, wird das Rasterabtasten stets von einer Stelle auf der äußeren Umrandung des zusammengesetzten Bildes CI beginnen, weshalb nur die Koordinaten der Pixel, die auf dem äußeren Kantenbild EI1 angeordnet sind, erhalten werden.
  • Bei dem Verfahren zum Erzeugen des Differentialkonturbildes DC können die Bildfenster N&sub1; und N&sub2; entlang eines Teils der Kontur CT bewegt werden. In diesem Fall werden die übrigbleibenden Teile der Kontur CT mit einer anderen Methode erfaßt, bei welcher entsprechende Absolutwertniveaus der Pixel mit einem Schwellenwert verglichen werden, so daß die Pixel auf der Kontur von den anderen Pixeln unterschieden werden.

Claims (9)

1. Verfahren zum Erzeugen von Konturbilddaten, die eine Kontur (CT) eines Objektbildes darstellen, das in einem Originalbild enthalten ist, wobei besagtes Originalbild durch eine Vielzahl von Pixeln mit einer Helligkeitsgradation dargestellt ist und das Verfahren die folgenden Schritte umfaßt:
(p) Berechnen jeweiliger räumlicher Differenzen (EFi) von Helligkeitsgradationsniveaus bezüglich Pixeln (P) auf besagtem Originalbild;
(q) Vergleichen der besagten jeweiligen räumlichen Differentiale (EFi) mit einem Schwellenniveau (Eth), um die Pixel (P) auf dem Originalbild in Binärform zu bringen, wobei ein Differentialkonturbild (DC), das die Kontur (CT) bezeichnet, erhalten wird;
dadurch gekennzeichnet, daß der Schritt (q) die folgenden Schritte umfaßt
(q-1) Erzeugen eines Differentialhistogramms, das eine Verteilung der besagten jeweiligen räumlichen Differentiale darstellt,
(q-2) Bestimmen eines Grenzdifferentialwertes (EA) zum Aufteilen besagten Differentialhistrograinms in zwei Teile, so daß ein Verhältnis der besagten beiden Teile mit einem vorherbestimmten Verhältnis zusammenfällt, und
(q-3) Bestimmen besagten Schwellenwertes (Eth) durch besagten Grenzdifferentialwert (EA);
und daß das Verfahren ferner die folgenden Schritte umfaßt:
(r) Erzeugen eines Ringbildes (RP2), das das Differentialkonturbild (DC) mit einem Rand umgibt;
(s) Aufteilen besagten Ringbildes in ein inneres Ringbild (RP2IN) und ein äußeres Ringbild (RP2OUT), mit besagtem Differentialkonturbild (DC), wobei besagtes innere Ringbild (RP2IN) und besagtes äußere Ringbild (RP2OUT) voneinander durch einen Zwischenraum getrennt sind, der einen Umkehrbild des Differentialkonturbildes (DC) entspricht;
(t) Loschen entweder besagten inneren Ringbildes (RP2IN) oder besagten äußeren Ringbildes (RP2OUT), um dadurch ein übrigbleibendes Ringbild zu erzeugen;
(u) Verbinden des übrigbleibenden Ringbildes mit dem Differentialkonturbild (DC), um ein zusammengesetztes Bild (CI) zu erzeugen, das die Form eines Ringes hat;
(v) Erzeugen eines Schleifenbildes, das einen Schleife (EI1) bestimmt, die sich entlang einer Kante des zusammengesetzten Bildes erstreckt; und
(w) Erzeugen der Konturbilddaten in Übereinstimmung mit besagtem Schleifenbild.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (v) folgendes umfaßt:
(v-1) Ausdünnen des zusammengesetzten Bildes (CI) durch Löschen entweder des inneren oder des äußeren Randbereichs des zusammengesetzten Bildes (CI), um ein ausgedünntes Bild zu erhalten, das die Form des Ringes hat,
(v-2) Erzeugen eines ersten Kantenbildes (EI1, EI2), das die inneren und äußeren Kanten des ausgedünnten Bildes darstellt,
(v-3) Erzeugen eines zweiten Kantenbildes (XD1, XD2), das die inneren und äußeren Kanten des Ringbildes darstellt, und
(v-4) Löschen eines Teils des ersten Kantenbildes (EI1, EI2), bei welchem das zweite Kantenbild (XD1, XD2) mit dem ersten Kantenbild überlappt, um das Schleifenbild zu erhalten.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß es ferner die folgenden Schritte umfaßt:
(x) Anzeigen des Originalbildes auf einem Anzeigemittel (9),
(y) Kennzeichnen eines Punktes (TG) in der Nähe besagter Kontur (CT), die in dem angezeigten Originalbild enthalten ist,
(z) Erzeugen erster und zweiter Bildfenster (N1, N2) um besagten Punkt (TG) auf besagten Anzeigemittel (9), wobei besagtes zweite Bildfenster (N2) einen größeren Radius als das erste Bildfenster (N1) hat und besagtes erste Bildfenster (N1) von besagten zweiten Bildfenster (N2) umgeben ist,
und weiterhin den folgenden Schritt umfaßt:
(A) Bewegen des Punktes (TG) entlang der Kontur (CT), so daß das erste und das zweite Bildfenster (N1, N2) der Bewegung des Punktes (TG) folgt, wobei erste und zweite Ringe durch entsprechende Spuren des ersten bzw. des zweiten Bildfensters (N1, N2) festgelegt werden, besagte Pixel auf den Originalbild, die dem Schritt (p) unterworfen werden, Pixel sind, die zu dem ersten Ring gehören, und das im Schritt (r) erzeugte Ringbild ein Bild ist, daß den zweiten Ring darstellt.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, daß der Schritt (v-1) ferner die folgenden Schritte enthält:
(v-11) Erfassen der inneren und äußeren Kantenbereiche (EI1, EI2) besagten zusammengesetzten Bildes (CI) und
(v-12) Löschen entweder des inneren oder des äußeren Kantenbereichs (EI1, EI2), der mit dem ersten Ringbild überlappt, um das ausgedünnte Bild zu erhalten.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß der Schritt (A) die folgenden Schritte enthält:
(A-1) Anhalten der Bewegung des Punktes (TG) an einer Stelle, an welcher ein Teil der Kontur (CT) in dem ersten Fenster (N1) erscheint,
(A-2) Durchführen der Schritte (p) und (q) für Pixel innerhalb des ersten Bildfensters (N1), wodurch ein Teil des Differentialkonturbildes erhalten wird,
(A-3) Wiederholen der Schritte (A-1) und (A-2) während der Bewegung des Punktes (TG) entlang der Kontur (CT), wodurch entsprechende Teile des Differentialkonturbildes erhalten werden, und
(A-4) Verbinden der entsprechenden Teile des Differentialkonturbildes miteinander, um das komplette Differentialkonturbild zu erhalten.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß es außerdem den folgenden Schritt enthält:
(B) Anzeigen des Differentialkonturbildes (DC) und des Ringbildes auf dem Anzeigemittel (9) während des Überlappens des Differentialkonturbildes (DC) und des Ringbildes mit dem Originalbild auf dem Anzeigemittel (9).
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß das Differentialkonturbild (DC) und das Ringbild auf dem Anzeigemittel (g) in halbdurchlässigen Farben angezeigt werden.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß das Differentialkonturbild (DC) feine Löcher (PH) hat, das Umkehrbild ( ) des Differentialkonturbildes umgekehrte feine Löcher ( ) enthält und die umgekehrten feinen Löcher mit den feinen Löchern (PH) über den Schritt (u) ausgeglichen werden.
9. Verfahren nach Ansruch 1, dadurch gekennzeichnet, daß der Schritt (v) ferner die folgenden Schritte enthält:
(v-21) Ausdünnen des zusammengesetzten Bildes durch Löschen entweder des inneren oder des äußeren Kantenbereichs (EI1, EI2) des zusammengesetzten Bildes, um ein ausgedünntes Bild in der Form eines Ringes zu erhalten, und
(v-22) Nachfahren einer Kante des ausgedünnten Bildes, die nicht in dem obigen Schritt gelöscht worden ist, um das Schleifenbild zu erhalten.
DE68918886T 1988-04-08 1989-04-07 Verfahren zur Gewinnung der Aussenlinie eines Objektes in einem Bild. Expired - Fee Related DE68918886T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP8792988A JPH0642068B2 (ja) 1988-04-08 1988-04-08 画像輪郭データ作成方法
JP63191428A JPH0240777A (ja) 1988-07-29 1988-07-29 画像輸郭データ作成方法及びその作成過程の表示方法

Publications (2)

Publication Number Publication Date
DE68918886D1 DE68918886D1 (de) 1994-11-24
DE68918886T2 true DE68918886T2 (de) 1995-06-01

Family

ID=26429159

Family Applications (1)

Application Number Title Priority Date Filing Date
DE68918886T Expired - Fee Related DE68918886T2 (de) 1988-04-08 1989-04-07 Verfahren zur Gewinnung der Aussenlinie eines Objektes in einem Bild.

Country Status (3)

Country Link
US (1) US5091967A (de)
EP (1) EP0336430B1 (de)
DE (1) DE68918886T2 (de)

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69032400T2 (de) * 1989-10-10 1999-02-18 Unisys Corp Bilddatenverarbeitungssystem und methode
US5140444A (en) * 1989-10-10 1992-08-18 Unisys Corporation Image data processor
EP0435167A3 (en) * 1989-12-20 1991-07-10 Dai Nippon Insatsu Kabushiki Kaisha Cut mask preparation method and apparatus
ATE169790T1 (de) * 1990-03-05 1998-08-15 Canon Kk Bildverarbeitungsgerät
US5428775A (en) * 1990-05-24 1995-06-27 Apple Computer, Inc. Apparatus for providing data dependent write operations
JP2528376B2 (ja) * 1990-06-28 1996-08-28 大日本スクリーン製造株式会社 画像の輪郭修正方法
JPH04119473A (ja) * 1990-09-10 1992-04-20 Dainippon Screen Mfg Co Ltd カットマスク作成方法
JPH04175065A (ja) * 1990-11-08 1992-06-23 Canon Inc 画像処理装置
JPH04196761A (ja) * 1990-11-28 1992-07-16 Canon Inc 画像形成装置
JPH04219067A (ja) * 1990-12-19 1992-08-10 Canon Inc 画像処理方法
US5448692A (en) * 1991-03-27 1995-09-05 Ricoh Company, Ltd. Digital image processing device involving processing of areas of image, based on respective contour line traces
US5295202A (en) * 1991-08-19 1994-03-15 Eastman Kodak Company Method and apparatus for replicating a two-color original image with foreground and background colors exchanged
JPH05100167A (ja) * 1991-10-08 1993-04-23 Nikon Corp 輪郭強調回路
JP2639518B2 (ja) * 1991-10-30 1997-08-13 大日本スクリーン製造株式会社 画像処理方法
US5293579A (en) * 1992-02-18 1994-03-08 Ray Dream, Inc. Method and apparatus for smoothing jagged edges in a graphics display
JP2917661B2 (ja) * 1992-04-28 1999-07-12 住友電気工業株式会社 交通流計測処理方法及び装置
KR100206258B1 (ko) * 1992-04-28 1999-07-01 윤종용 화상추출장치
DE4326716B4 (de) * 1992-08-04 2005-03-03 Kabushiki Kaisha Topcon Anordnung zur Verarbeitung eines ophthalmologischen Bildes
US5343309A (en) * 1992-08-12 1994-08-30 Xerox Corporation Image processing system and method employing adaptive filtering to provide improved reconstruction of continuous tone images from halftone images including those without a screen structure
JP3006338B2 (ja) * 1993-03-26 2000-02-07 松下電器産業株式会社 運動領域輪郭検出装置
US5664171A (en) * 1994-04-14 1997-09-02 International Business Machines Corporation System and method for query optimization using quantile values of a large unordered data set
US5740266A (en) * 1994-04-15 1998-04-14 Base Ten Systems, Inc. Image processing system and method
US5583659A (en) * 1994-11-10 1996-12-10 Eastman Kodak Company Multi-windowing technique for thresholding an image using local image properties
US5786855A (en) * 1995-10-26 1998-07-28 Lucent Technologies Inc. Method and apparatus for coding segmented regions in video sequences for content-based scalability
JP3532014B2 (ja) * 1995-11-30 2004-05-31 松下電器産業株式会社 しきい値算出方法
US5887081A (en) * 1995-12-07 1999-03-23 Ncr Corporation Method for fast image identification and categorization of multimedia data
JP3189870B2 (ja) * 1996-12-24 2001-07-16 シャープ株式会社 画像処理装置
US6025850A (en) * 1997-03-28 2000-02-15 Adobe Systems Incorporated Object boundaries identified in a raster image by a user selecting positions on the raster image and then using cost functions to predict likelihood of pixels near the position being on a boundary path
JP3436473B2 (ja) * 1997-06-20 2003-08-11 シャープ株式会社 画像処理装置
US5875383A (en) * 1997-09-30 1999-02-23 Xerox Corporation Dual mode interchangeable modules cut sheet or web printing system with a single xerographic cut sheet print engine
JP3511454B2 (ja) * 1997-10-31 2004-03-29 大日本スクリーン製造株式会社 画像切り抜き方法および装置
US6108658A (en) * 1998-03-30 2000-08-22 International Business Machines Corporation Single pass space efficent system and method for generating approximate quantiles satisfying an apriori user-defined approximation error
US6535213B1 (en) * 1998-09-22 2003-03-18 Sony Corporation Curve edition system, curve-loop detecting system, curve-loop removing system
US6850634B1 (en) * 1998-09-25 2005-02-01 Canon Kabushiki Kaisha Image processing apparatus, method, and storage medium for processing a radiation image
US6747642B1 (en) 1999-01-29 2004-06-08 Nintendo Co., Ltd. Method and apparatus for providing non-photorealistic cartoon outlining within a 3D videographics system
EP1073279A4 (de) * 1999-02-19 2006-04-05 Sony Corp Bildsignalprozessor, bildsignalverarbeitungsverfahren, lernvorrichtung, lermethoide und aufzeichnungsmedium
US6343288B1 (en) 1999-03-12 2002-01-29 International Business Machines Corporation Single pass space efficient system and method for generating an approximate quantile in a data set having an unknown size
US6238217B1 (en) * 1999-05-17 2001-05-29 Cec Entertainment, Inc. Video coloring book
JP2001119610A (ja) * 1999-08-10 2001-04-27 Alps Electric Co Ltd 輪郭検出回路及び画像表示装置
US6618048B1 (en) 1999-10-28 2003-09-09 Nintendo Co., Ltd. 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components
US6717577B1 (en) 1999-10-28 2004-04-06 Nintendo Co., Ltd. Vertex cache for 3D computer graphics
US7611048B1 (en) 1999-11-30 2009-11-03 Diebold, Incorporated Check accepting and cash dispensing automated banking machine system and method
US6674925B1 (en) * 2000-02-08 2004-01-06 University Of Washington Morphological postprocessing for object tracking and segmentation
US7058903B1 (en) 2000-02-11 2006-06-06 Sony Corporation Image database jog/shuttle search
US7262778B1 (en) 2000-02-11 2007-08-28 Sony Corporation Automatic color adjustment of a template design
US7136528B2 (en) * 2000-02-11 2006-11-14 Sony Corporation System and method for editing digital images
US7119813B1 (en) 2000-06-02 2006-10-10 Nintendo Co., Ltd. Variable bit field encoding
US7034828B1 (en) 2000-08-23 2006-04-25 Nintendo Co., Ltd. Recirculating shade tree blender for a graphics system
US6825851B1 (en) 2000-08-23 2004-11-30 Nintendo Co., Ltd. Method and apparatus for environment-mapped bump-mapping in a graphics system
US6980218B1 (en) * 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system
US7061502B1 (en) 2000-08-23 2006-06-13 Nintendo Co., Ltd. Method and apparatus for providing logical combination of N alpha operations within a graphics system
US7538772B1 (en) * 2000-08-23 2009-05-26 Nintendo Co., Ltd. Graphics processing system with enhanced memory controller
US6636214B1 (en) 2000-08-23 2003-10-21 Nintendo Co., Ltd. Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode
US7002591B1 (en) 2000-08-23 2006-02-21 Nintendo Co., Ltd. Method and apparatus for interleaved processing of direct and indirect texture coordinates in a graphics system
US7184059B1 (en) 2000-08-23 2007-02-27 Nintendo Co., Ltd. Graphics system with copy out conversions between embedded frame buffer and main memory
US7196710B1 (en) 2000-08-23 2007-03-27 Nintendo Co., Ltd. Method and apparatus for buffering graphics data in a graphics system
US6867781B1 (en) 2000-08-23 2005-03-15 Nintendo Co., Ltd. Graphics pipeline token synchronization
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
US6707458B1 (en) 2000-08-23 2004-03-16 Nintendo Co., Ltd. Method and apparatus for texture tiling in a graphics system
US6937245B1 (en) * 2000-08-23 2005-08-30 Nintendo Co., Ltd. Graphics system with embedded frame buffer having reconfigurable pixel formats
US7576748B2 (en) * 2000-11-28 2009-08-18 Nintendo Co. Ltd. Graphics system with embedded frame butter having reconfigurable pixel formats
US6811489B1 (en) 2000-08-23 2004-11-02 Nintendo Co., Ltd. Controller interface for a graphics system
US20020073143A1 (en) * 2000-08-31 2002-06-13 Edwards Eric D. File archive and media transfer system with user notification
JP3925112B2 (ja) * 2001-06-20 2007-06-06 富士ゼロックス株式会社 画像処理装置
JP3947969B2 (ja) * 2002-05-15 2007-07-25 ソニー株式会社 画像処理装置、および画像処理方法、記録媒体、並びにプログラム
US7321699B2 (en) * 2002-09-06 2008-01-22 Rytec Corporation Signal intensity range transformation apparatus and method
US7253924B2 (en) * 2003-01-31 2007-08-07 Eastman Kodak Company Method of imaging multiple binary bitmaps in a single pass
JP2004240583A (ja) * 2003-02-04 2004-08-26 Brother Ind Ltd 画像処理装置およびそれを備えた画像読み取り装置
JP5281265B2 (ja) * 2007-10-02 2013-09-04 キヤノン株式会社 印刷処理方法およびそれを実現する情報処理装置
JP6039401B2 (ja) * 2012-12-18 2016-12-07 キヤノン株式会社 印刷データ処理装置、印刷データ処理方法、およびプログラム
US10067697B2 (en) * 2013-04-11 2018-09-04 Group 47, Inc. Archiving imagery and documents on digital optical tape
US9508376B2 (en) * 2013-04-11 2016-11-29 Group 47, Inc. Archiving imagery on digital optical tape
CN104392429A (zh) * 2014-10-15 2015-03-04 中铁电气化局集团有限公司 基于色彩信息和P-tile算法的受电弓图像定位方法
WO2016154366A1 (en) * 2015-03-23 2016-09-29 Arris Enterprises, Inc. System and method for selectively compressing images
US10237447B2 (en) * 2015-06-29 2019-03-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN112862708B (zh) * 2021-01-27 2024-02-23 牛津仪器科技(上海)有限公司 图像噪声的自适应识别方法、传感器芯片以及电子设备
CN115830021B (zh) * 2023-02-15 2023-04-21 东莞市新通电子设备有限公司 一种用于五金件加工的金属表面缺陷检测方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4493420A (en) * 1981-01-29 1985-01-15 Lockwood Graders (U.K.) Limited Method and apparatus for detecting bounded regions of images, and method and apparatus for sorting articles and detecting flaws
JPS60143341A (ja) * 1983-12-30 1985-07-29 Dainippon Screen Mfg Co Ltd 抜きマスク版の作製方法
US4797943A (en) * 1985-11-29 1989-01-10 Ricoh Company, Ltd. Gradation data processing apparatus
JPH0616169B2 (ja) * 1987-01-23 1994-03-02 大日本スクリ−ン製造株式会社 画像輪郭線デ−タ作成装置

Also Published As

Publication number Publication date
US5091967A (en) 1992-02-25
EP0336430A2 (de) 1989-10-11
DE68918886D1 (de) 1994-11-24
EP0336430B1 (de) 1994-10-19
EP0336430A3 (en) 1990-11-07

Similar Documents

Publication Publication Date Title
DE68918886T2 (de) Verfahren zur Gewinnung der Aussenlinie eines Objektes in einem Bild.
DE102009036474B4 (de) Bilddaten-Kompressionsverfahren, Mustermodell-Positionierungsverfahren bei Bildverarbeitung, Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und computerlesbares Aufzeichnungsmedium
DE69734855T2 (de) Vorrichtung und Verfahren zur Extraktion eines Objektes in einem Bild
DE2920058C2 (de) Verfahren und Schaltungsanordnung zur partiellen elektronischen Retusche bei der Farbbildreproduktion
EP0014857B1 (de) Verfahren zum automatischen Markieren von Zellen und zur Bestimmung der Merkmale von Zellen aus zytologischen Abstrichpräparaten
DE3446898C2 (de)
DE69728127T2 (de) Vorrichtung und Verfahren zur Extraktion eines Objekts in einem Bild
DE69121523T2 (de) Beseitigung von fehlerhaften Punkten in einem abgetasteten Bild
DE3935067C2 (de)
EP2130174B1 (de) Verfahren und vorrichtung zur ermittlung einer zellkontur einer zelle
DE3426933A1 (de) Anordnung zum selbsttaetigen korrigieren von fehluebertragungen
DE3736932A1 (de) Verfahren und anordnung fuer brillengestell-bildverarbeitung und -registrierung
DE4142650A1 (de) Verfahren und anordnung zur ableitung eines steuersignals fuer die einblendung eines hintergrundsignals in teile eines vordergrundsignals
DE3315148C2 (de)
EP0059705B1 (de) Verfahren und schaltungsanordnung zur partiellen korrektur der zeichnung bei der farbbildreproduktion
DE102007040070B4 (de) Bilddichteumwandlungsverfahren, Bildverbesserungsverarbeitungseinrichtung und dafür geeignetes Programm
DE102009057885A1 (de) Abbildungsvorrichtung
DE68927545T2 (de) Verfahren und Vorrichtung zur Berichtigung von Stellungen von Bildern
DE10321265A1 (de) Nähdatenvorbereitungssystem und Nähdatenvorbereitungsprogramm
DE69219647T2 (de) Verfahren und Vorrichtung zum Einfärben einer Bildfläche
DE102018124401A1 (de) Verfahren zum Aufnehmen eines Bildes mit einem Teilchenmikroskop
DE60320076T2 (de) Verfahren zur elektronischen farbentfernung unter nutzung räumlicher beziehungen zur verbesserung der genauigkeit
EP0060243B1 (de) Verfahren und schaltungsanordnung zur partiellen elektronischen retusche bei der farbbildreproduktion
DE3889528T2 (de) Verfahren und Anordnung zum Aufzeichnen eines Bildes in der Form einer Matrize von Bildelementen.
EP0032899B1 (de) Verfahren und einrichtung zum ermitteln von konturen innerhalb eines digital gespeicherten bildes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee