DE3939621C2 - Verfahren und Vorrichtung zur Erfassung von Markendaten in Bilddaten - Google Patents
Verfahren und Vorrichtung zur Erfassung von Markendaten in BilddatenInfo
- Publication number
- DE3939621C2 DE3939621C2 DE3939621A DE3939621A DE3939621C2 DE 3939621 C2 DE3939621 C2 DE 3939621C2 DE 3939621 A DE3939621 A DE 3939621A DE 3939621 A DE3939621 A DE 3939621A DE 3939621 C2 DE3939621 C2 DE 3939621C2
- Authority
- DE
- Germany
- Prior art keywords
- image data
- processor
- difference
- value
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/08—Methods or arrangements for sensing record carriers, e.g. for reading patterns by means detecting the change of an electrostatic or magnetic field, e.g. by detecting change of capacitance between electrodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
Die vorliegende Erfindung bezieht sich auf ein Verfahren
und eine Vorrichtung zur Erfassung von Markenbilddaten, die
einer Marke in Bilddaten entsprechen.
Um eine Marke, beispielsweise eine rechteckige Marke, die
auf der Basis analoger, durch eine Kamera oder
dergleichen eingegebener Bilddaten auf Papier gedruckt
oder geschrieben sind, zu erfassen, müssen die
Markenbilddaten selber entsprechend der Marke oder ihrer
zentralen Position erfaßt werden. Es sei hier angenommen,
daß durch die Bilddaten dargestellte gewünschte
Markenbilddaten eine waagerechte Länge FH und eine
senkrechte Länge FV, gemessen in Pixeleinheiten,
besitzen, wie in Fig. 1 dargestellt.
Beim konventionellen Markenerfassungsgerät werden daher
durch eine Kamera oder dergleichen eingegebene Bilddaten
zunächst in digitale Daten umgewandelt. Dann werden die
waagerechten und senkrechten Längen FH′ und FV′ der
aktuellen Markenbilddaten in den digitalen Bilddaten
gemessen. Die gemessenen Längen FH′ und FV′ werden dann
jeweils mit den bekannten Längen FH und FV verglichen, so
daß auf diese Weise eine rechteckige Marke erfaßt wird.
Um bei der obigen Methode analoge, durch eine Kamera oder
dergleichen eingegebene Bilddaten zu digitalisieren, wird
jedes Pixel von den analogen Bilddaten abgetastet, und
nach jedem Abtasten wird die Amplitude der analogen
Bilddaten in einen Binärwert umgewandelt. Im Ergebnis
wird die Grenze der Bildmarkendaten erfaßt. Damit ist
gemeint, daß die Dichtedaten jedes Pixels der analogen
Bilddaten mit einem Schwellenwert verglichen werden.
Entsprechend dem Vergleichsergebnis wird das Pixel durch
binäre Daten dargestellt, die angeben, ob das Pixel
innerhalb der Markenbilddaten vorhanden ist oder nicht.
Allerdings schwankt der Dichteunterschied zwischen den
Markenbilddaten und anderen Abschnitten entsprechend dem
auf das Papier oder dergleichen mit der aufgeschriebenen
Marke auftreffenden Licht. Wie in Fig. 2A dargestellt,
werden kleinere Markenbilddaten als die wirklichen
erfaßt, sofern ein aktueller Schwellenwert niedriger als
ein gewünschter Schwellenwert ist. Im Gegensatz dazu
werden, wie in Fig. 2B gezeigt, größere Markenbilddaten
als die wirklichen erfaßt, sofern ein aktueller
Schwellenwert größer als ein gewünschter Schwellenwert
ist. Infolgedessen kann die Marke nicht richtig erfaßt
werden.
Wie oben beschrieben, können bei der konventionellen
Markenerfassungsmethode die Längen von Markenbilddaten nicht
richtig gemessen werden, wenn die eingegebenen analogen
Bilddaten nicht bei einem vorgegebenen Schwellenwert aufgrund
von Änderungseinflüssen des Außenlichts, der einseitigen
Beleuchtung und dergleichen richtig digitalisiert werden
können, was eine Abnahme der Präzision bei der Markenerfassung
zur Folge hat.
In der Patentschrift US 4,581,762 wird ein Verfahren zur
besseren Randerkennung vorgeschlagen, bei dem mit Hilfe von
Sobeloperatoren aus den Bilddaten Gradientinformationen
gewonnen werden.
Die vorliegende Erfindung beruht auf diesbezüglichen Erwägungen
und hat zum Ziel, ein Verfahren und eine Vorrichtung zur
Erfassung der Position einer Marke (Zielfläche) mit erhöhter
Erfassungspräzision zu schaffen, und zwar ohne Beeinflussung
durch Änderungen des Außenlichts, einer einseitigen Beleuchtung
und dergleichen.
Um dieses Ziel zu erreichen, wird gemäß der vorliegenden
Erfindung ein Verfahren geschaffen zur Feststellung des
Vorhandenseins einer Marke im Bild, die eine erste vorgegebene
Länge in einer ersten Richtung und eine zweite vorgegebene
Länge in einer zweiten Richtung aufweist, mit folgenden
Schritten:
Erfassung erster digitaler Bilddaten des Bildes in Form einer Vielzahl von Pixeln,
Gewinnung zweiter digitaler Bilddaten durch Anwendung eines ersten Differenzoperators auf die ersten Bilddaten in der ersten Richtung,
Gewinnung dritter digitaler Bilddaten durch Anwendung eines zweiten Differenzoperators auf die ersten Bilddaten in der ersten Richtung,
Verschieben der zweiten und dritten Bilddaten um die Hälfte der ersten Länge entgegengesetzt zueinander in der ersten Richtung,
Gewinnung vierter Bilddaten durch Addieren der verschobenen zweiten und dritten Bilddaten,
Feststellen des Auftretens eines maximalen Bilddatenwertes größer oder gleich einem vorbestimmten Wert,
Gewinnung fünfter digitaler Bilddaten durch Anwendung eines dritten Differenzoperators auf die vierten Bilddaten in der zweiten Richtung,
Gewinnung sechster digitaler Bilddaten durch Anwendung eines vierten Differenzoperators auf die vierten Bilddaten in der zweiten Richtung,
Verschieben der fünften und sechsten Bilddaten um die Hälfte der zweiten Länge entgegengesetzt zueinander in der zweiten Richtung,
Gewinnung siebter Bilddaten durch Addieren der verschobenen fünften und sechsten Bilddaten, und
Feststellen des Auftretens eines maximalen Bilddatenwertes größer oder gleich einem vorbestimmten Wert.
Erfassung erster digitaler Bilddaten des Bildes in Form einer Vielzahl von Pixeln,
Gewinnung zweiter digitaler Bilddaten durch Anwendung eines ersten Differenzoperators auf die ersten Bilddaten in der ersten Richtung,
Gewinnung dritter digitaler Bilddaten durch Anwendung eines zweiten Differenzoperators auf die ersten Bilddaten in der ersten Richtung,
Verschieben der zweiten und dritten Bilddaten um die Hälfte der ersten Länge entgegengesetzt zueinander in der ersten Richtung,
Gewinnung vierter Bilddaten durch Addieren der verschobenen zweiten und dritten Bilddaten,
Feststellen des Auftretens eines maximalen Bilddatenwertes größer oder gleich einem vorbestimmten Wert,
Gewinnung fünfter digitaler Bilddaten durch Anwendung eines dritten Differenzoperators auf die vierten Bilddaten in der zweiten Richtung,
Gewinnung sechster digitaler Bilddaten durch Anwendung eines vierten Differenzoperators auf die vierten Bilddaten in der zweiten Richtung,
Verschieben der fünften und sechsten Bilddaten um die Hälfte der zweiten Länge entgegengesetzt zueinander in der zweiten Richtung,
Gewinnung siebter Bilddaten durch Addieren der verschobenen fünften und sechsten Bilddaten, und
Feststellen des Auftretens eines maximalen Bilddatenwertes größer oder gleich einem vorbestimmten Wert.
Um das vorgenannte Ziel zu erreichen, wird gemäß der
vorliegenden Erfindung eine Vorrichtung zur Durchführung des
genannten Verfahrens geschaffen mit:
einem Differenzprozessor, der auf einen eingegebenen Differenzieroperationsbefehl anspricht, zur Durchführung einer Differenzieroperation an Bilddaten,
einem Addierprozessor, der auf einen eingegebenen Addierbefehl anspricht, zum Verschieben von einen Bilddaten in einer Richtung um eine bestimmte Länge und zum Verschieben von anderen Bilddaten in eine entgegengesetzte Richtung um eine bestimmte Länge und zum Addieren der Bilddaten, und
einem Steuergerät zur Abgabe der Differenzoperationsbefehle und der Addierbefehle an den Differenzprozessor und den Addierprozessor und zur Feststellung des Auftretens eines maximalen Bilddatenwertes größer oder gleich einem vorbestimmten Wert.
einem Differenzprozessor, der auf einen eingegebenen Differenzieroperationsbefehl anspricht, zur Durchführung einer Differenzieroperation an Bilddaten,
einem Addierprozessor, der auf einen eingegebenen Addierbefehl anspricht, zum Verschieben von einen Bilddaten in einer Richtung um eine bestimmte Länge und zum Verschieben von anderen Bilddaten in eine entgegengesetzte Richtung um eine bestimmte Länge und zum Addieren der Bilddaten, und
einem Steuergerät zur Abgabe der Differenzoperationsbefehle und der Addierbefehle an den Differenzprozessor und den Addierprozessor und zur Feststellung des Auftretens eines maximalen Bilddatenwertes größer oder gleich einem vorbestimmten Wert.
Wie oben beschrieben, kann gemäß der vorliegenden
Erfindung die Position einer Marke ohne Umwandlung der
eingegebenen analogen Bilddaten in binäre Daten erfaßt
werden, weil Differentialfilteroperationen für digitale
Bilddaten mit Gradationsdarstellungs-Dichtedaten
durchgeführt werden. Deshalb ist der Schwellenwert frei
von Einflüssen wechselnden äußerer Lichtwechsel, der
einseitigen Beleuchtung und dergleichen, so daß
die Präzision der Markenerfassung gesteigert wird.
Weitere Vorteile und Anwendungsmöglichkeiten der
vorliegenden Erfindung ergeben sich aus der nachfolgenden
Beschreibung eines Ausführungsbeispiels in Verbindung mit
der Zeichnung.
Fig. 1 zeigt eine Darstellung zur
Beschreibung einer zu erfassenden
Marke;
Fig. 2A und 2B zeigen Darstellungen zur Erläuterung
einer konventionellen Methode der
Markenerfassung;
Fig. 3 stellt ein Blockschaltbild dar, das
den Aufbau einer
Markenerfassungseinrichtung gemäß
einer Ausführungsform der
vorliegenden Erfindung zeigt;
Fig. 4A bis 4D veranschaulichen jeweils
Darstellungen von
Differentialfiltertabellen, die im
Rahmen der in Fig. 3 dargestellten
Schaltung verwendet werden;
Fig. 5A und 5B stellen Flußdiagramme zur Erläuterung
eines Verfahrensablaufs im Rahmen der
Erfindung dar;
Fig. 6 ist eine Darstellung zur Erläuterung
des Verfahrens;
Fig. 7A bis 7D veranschaulichen jeweils Bilddaten
WI, WFX1, WFX2 und WX, die erhalten
werden, wenn die waagerechte Position
einer Marke erfaßt ist;
Fig. 8 ist eine Darstellung zur Erläuterung
des Falles, daß die
Markenerfassungseinrichtung nach Fig.
3 verwendet wird; und
Fig. 9A bis 9D und 10A bis 10D zeigen jeweils
Modifikationen der
Differentialfiltertabellen der Fig. 4.
Nachfolgend wird unter Bezugnahme auf die beigefügten
Zeichnungen ein Markenerfassungsgerät gemäß einer
Ausführungsform der vorliegenden Erfindung im einzelnen
beschrieben.
Der Aufbau der Ausführungsform wird zunächst unter
Bezugnahme auf Fig. 3 erläutert. Gemäß Fig. 3 erzeugt
eine Zentraleinheit CPU 11 verschiedene Befehle als
Antwort auf eine eingegebene Markenerfassungsanweisung,
um das genannte Gerät zu steuern. Jeder der
zweidimensionalen Bildspeicher 12-1, 12-2, . . ., 12-8 kann
Bilddaten speichern, die als Dichtedaten beispielsweise
8-Bit-Gradationsdaten (256 Pegel) besitzen.
Eine Kamera 13 empfängt durch ein Digitalisierungsgerät
14, gesteuert durch die CPU 11, analoge Bilddaten WI′
unter Einschluß von Markenbilddaten entsprechend einer
rechteckigen Marke. Das Digitalisierungsgerät 14 steuert
die Kamera 13 als Antwort auf einen Abbildungsbefehl der
CPU 11, sie tastet die Analogbilddaten WI′ von der Kamera
13 ab und wandelt sie in digitale Bilddaten WI um, die
aus einer Vielzahl von Pixeln bestehen. Im Anschluß an
die Abtastung werden die Amplituden der analogen
Bilddaten WI′ in digitale 8-Bit-Dichtedaten umgewandelt.
Das heißt, daß die Bilddaten WI als Dichtedaten
8-Bit-Gradationsdaten besitzen. Die Bilddaten WI werden
im Bildspeicher 12-1 gespeichert.
Als Antwort auf einen ersten bis vierten
Differentialfilteroperationsbefehl der CPU 11 führt ein
Differentialfilteroperationsprozessor 15 unter Verwendung
einer Differentialfiltertabelle
Differentialfilteroperationen zur Gewinnung der
Dichtedaten jedes in einem bestimmten Bildspeicher
gespeicherten Bildpixels durch und erhält Bilddaten mit
den Operationsdaten als Dichtedaten. Der Prozessor 15
besitzt jeweils die in den Fig. 4A, 4B, 4C und 4D
dargestellten Differentialfiltertabellen 31, 32, 33 und
34. Diese Tabellen werden jeweils zur Durchführung der
ersten bis zur vierten Differentialfilteroperation
benutzt.
Ein Operationsprozessor 16 addiert als Antwort auf einen
Addierbefehl der CPU 11 die Dichtedaten der
entsprechenden Pixels der in den beiden bestimmten
Bildspeichern gespeicherten Bilddaten und erhält
Bilddaten mit den Operationsergebnissen als Dichtedaten.
Darüber hinaus berechnet der Prozessor 16 den Schwerpunkt
einer bezeichneten Fläche der Bilddaten als Antwort auf
einen Befehl der CPU zur Durchführung der
Schwerpunktberechnung. Ein Histogrammoperationsprozessor
17 erzeugt das Dichtehistogramm der bezeichneten
Bilddaten als Antwort auf einen
Histogrammoperationsbefehl der CPU 11.
Die CPU 11 erzeugt in Übereinstimmung mit dem
Histogrammoperationsergebnis eine Abfragetabelle. Als
Antwort auf einen Datenumwandlungsbefehl der CPU 11
wandelt ein Datenumwandlungsprozessor 18 die mit einer
Bezeichnung versehene Bilddaten entsprechend der
Abfragetabelle um. Ein Tabellenspeicher 19 speichert die
Abfragetabelle. Ein Steuerbus 20 ermöglicht es der CPU
11, die Bildspeicher 12-1 bis 12-8, das Digitalisiergerät
14, die Prozessoren 15 bis 18 und die Abfragetabelle 19
zu steuern. Ein Bilddatenbus 21 führt die
Bilddatenübertragung zwischen den Bildspeichern 12- bis
12-8, dem Digitalisiergerät 14, den Prozessoren 15 bis 18
und der Abfragetabelle 19 durch.
Nachfolgend wird die Betriebsweise des
Markenerfassungsgerätes gemäß der Ausführungsform der
vorliegenden Erfindung unter Bezugnahme auf die Fig. 5A
und 5B beschrieben. Es sei hier angenommen, daß die
horizontale und die vertikale Länge FH und FV der
Markenbilddaten, die einer rechteckigen Marke in
digitalen Bilddaten entsprechen, in Pixeleinheiten
festgelegt sind, und daß FH < FV ist. Es sei ferner
angenommen, daß die rechteckige Marke eine schwarze Marke
auf weißem Hintergrund ist, und daß die Dichtedaten jedes
Pixels der digitalen Bilddaten durch 8 Bits dargestellt
werden.
In Schritt S2 gibt die CPU 11 als Antwort auf eine
eingegebene Markenerfassungsanweisung einen
Abbildungsbefehl an das Digitalisiergerät 14. Als Antwort
auf den Abbildungsbefehl steuert das Digitalisiergerät 14
die Kamera 13 so an, daß sie eine auf einem Blatt 40
geschriebene Marke 42 photographiert und analoge
Bilddaten WI′ an das Digitalisiergerät 14 ausgibt. Das
Digitalisiergerät 14 digitalisiert die von der Kamera 13
gelieferten analogen Bilddaten WI′, um digitale Bilddaten
WI zu erhalten, die aus einer Vielzahl von Pixeln
bestehen. Gleichzeitig wandelt das Digitalisiergerät 14
die Amplitude jedes Pixels der analogen Bilddaten WI′ in
8-Bit-Dichtedaten um. Die digitalen Bilddaten WI werden
im Bildspeicher 12-1 gespeichert. Fig. 7A zeigt einen
Zustand der Veränderung der Dichtedaten der Bilddaten WI
zwischen den in Fig. 6 dargestellten Positionen X1 und
X2. Nach Abchluß der Speicherung der Bilddaten WI gibt
das Digitalisiergerät 14 ein Beendigungssignal ACK
(Bestätigung an die CPU 11) aus.
In Schritt S4 schickt die CPU 11 als Antwort auf das
Beendigungssignal ACK des Digitalisiergerätes 14 einen
Befehl zur ersten Differentialfilteroperation für die
Bilddaten WI über den Steuerbus 20 an den
Differentialfilteroperationsprozessor 15. Als Antwort auf
den Befehl der CPU 11 liest der Prozessor 15 über den
Bilddatenbus 21 jedes Pixel der Bilddaten WI aus dem
Bildspeicher 12-1 in einer von Position X1 nach Position
X2 verlaufenden Richtung aus, wie in Fig. 6 gezeigt ist.
Die ausgelesenen Bilddaten WI werden unter Benutzung der
Differentialfiltertabelle 31 einer
Differentialfilteroperation unterzogen, um Bilddaten WFX1
zu erhalten. Fig. 4A zeigt den Inhalt der Tabelle 31. Wie
aus Fig. 4A hervorgeht, wird die
Differentialfilteroperation unter Verwendung von 8 um
ein Zielpixel herum angeordneten Pixeln durchgeführt. Im
vorliegenden Falle werden die Dichtedaten jedes Pixels,
das näher an der Position X2 liegt als das Zielpixel, mit
einem Faktor 2 multipliziert, während die Dichtedaten
jedes Pixels, das näher an der Position X1 als das
Zielpixel liegt, mit einem Faktor -2 multipliziert
werden. Als Ergebnis enthalten die Bilddaten WFX1 die
unter Verwendung der Tabelle 31 als Bilddaten gewonnenen
Operationsergebnisse. Fig. 7B zeigt die Ergebnisse der
Differentialfilteroperation zwischen den Positionen X1
und X2 für den Fall, daß die Tabelle 31 benutzt wird. Wie
aus den Bilddaten WFX1 in Fig. 7B hervorgeht, werden
Änderungen bei den Dichtedaten von Weiß nach Schwarz
durch positive Werte dargestellt, während Änderungen von
Schwarz nach Weiß durch negative Werte dargestellt sind.
Wie durch die gestrichelten Linien angezeigt wird, wird
der Differentialwert mit "0" dargestellt, falls ein
Differentialoperationsergebnis einen negativen Wert
besitzt. Anschließend speichert der Prozessor 8 die
Bilddaten WFX1 über den Bilddatenbus 21 im Bildspeicher
12-2 ab und liefert ein Beendigungssignal ACK zur ersten
Differentialfilteroperation an die CPU 11.
Als Antwort auf das vom Prozessor 15 gelieferte
Beendigungssignal ACK gibt die CPU 11 einen zweiten
Differentialfilteroperationsbefehl für die Bilddaten WI
über den Steuerbus 20 an den Prozessor 15 aus. Als
Antwort auf den Operationsbefehl des Prozessors CPU 11
führt der Prozessor 15 zur Gewinnung der Bilddaten WFX2
unter Verwendung der Differentialfiltertabelle 32 eine
Differentialfilteroperation für die Bilddaten WI in der
gleichen Weise aus, wie bei der Operation zur Gewinnung
der Bilddaten WFX1. Wie aus Fig. 4B hervorgeht, hat jeder
Faktor der Tabelle 32 den gleichen Absolutwert wie der
eines entsprechenden Faktors der Tabelle 31, jedoch mit
einem umgekehrten Vorzeichen. Infolgedessen wird ein
positiver Differentialwert erhalten, wenn sich
Dichtedaten von Schwarz nach Weiß verändern. Fig. 7C
zeigt die Bilddaten WFX2 zwischen den Positionen X1 und
X2. Desgleichen wird in Fig. 7C jeder durch gestrichelte
Linien angezeigte negative Differentialwert durch eine
"0" dargestellt. Nach dem Speichern der Bilddaten WFX2 im
Bildspeicher 12-3 gibt der Prozessor 15 über den
Steuerbus 20 ein Beendigungssignal ACK an die CPU 11 aus.
In Schritt S6 sendet die CPU 11 als Antwort auf das
Beendigungssignal ACK des Prozessors 15 über den
Steuerbus 20 einen zusätzlichen Befehl an den
Operationsprozessor 16, die Bilddaten WFX1 und WFX2 zu
addieren. Als Antwort auf den Addierbefehl liest der
Operationsprozessor 16 die Differentialbilddaten WFX1 und
WFX2 jeweils aus den Bildspeichern 12-2 und 12-3 aus.
Dann verschiebt der Prozessor 16 die Bilddaten WFX1 und
WFX2 um FH/2 jeweils in Richtung X2 und X1. Anschließend
addiert der Prozessor 16 die Dichtedaten der
entsprechenden Pixel beider Bildgruppen, um die Bilddaten
WX zu erhalten. Im einzelnen erzeugt der Prozessor 16
Leseadressen (AX-FH/2) und (AX+FH/2) aus einer
Bezugspixeladresse AS aus und gibt sie jeweils an die
Bildspeicher 12-2 und 12-3 aus. Dementsprechend werden
die Dichtedaten der entsprechenden Pixel ausgelesen und
addiert. Alle Pixel werden unter Verwendung der
Bezugspixeladresse abgetastet. Die Bilddaten WX werden
bei der Bezugspixeladresse AX des Bildspeichers 12-4
eingeschrieben.
Aus diesen Bilddaten WX werden Bilddaten mit einer Spitze
in der Mitte der waagerechten Länge FH der rechteckigen
Marke 42, wie in Fig. 7D gezeigt. Die Spitze erscheint
immer in der Mitte jedes schwarzen Musters auf einer
waagerechten Linie, solange das Muster die waagerechte
Länge FH besitzt, unabhängig davon, ob es sich um eine
rechteckige Marke handelt oder nicht. Im Gegensatz dazu
entsteht auch bei einer rechteckigen Marke keine Spitze,
wenn die horizontale Länge nicht die Größe FH besitzt.
Bei dem in Fig. 6 dargestellten Fall werden die Bilddaten
WX, die ein Peakmuster in einem Bereich besitzen, der in
senkrechter Richtung mit der zentralen Achse einer
rechteckigen, in die Bilddaten WI eingeschlossenen Marke
(dargestellt durch ein schwarzes Muster) zusammenfällt,
im Bildspeicher 12-4 aufgenommen. Nach dieser Operation
gibt der Prozessor 16 ein Beendigungssignal ACK an die
CPU 11 aus.
Als Antwort auf das Beendigungssignal ACK des Prozessors
16 gibt die CPU 11 in Schritt S8 einen
Histogrammoperationsbefehl an den
Histogrammoperationsprozessor 17 aus. Als Antwort auf den
Befehl der CPU 11 erzeugt der Prozessor 17 die
Maximaldichtedaten PX durch Ausführen einer
Histogrammoperation für die Bilddaten WX. In Schritt S10
prüft die CPU, ob die Maximaldichtedaten PX gleich oder
größer sind als ein vorherbestimmter Wert XC. Falls die
Maximaldichtedaten PX kleiner als der Wert XC sind, wird
festgestellt, daß sich unter den Bilddaten WI keine Marke
befindet, so daß ein Fehlerbearbeitungsverfahren
durchgeführt wird. Wenn die Maximaldichtedaten gleich
oder größer als der Wert XC sind, das bedeutet Y in
Schritt S10, wird die Operation in Schritt S12
durchgeführt.
In Schritt S12 gibt die CPU 11 einen Befehl zur
Durchführung der dritten Differentialfilteroperation für
die Bilddaten WX über den Steuerbus 20 an den
Differentialfilteroperationsprozessor 15 aus. Als Antwort
auf den Befehl der CPU 11 liest der Prozessor 15 die
Bilddaten WX über den Bilddatenbus 21 aus dem
Bildspeicher 12-4 aus. Die ausgelesenen Bilddaten WX
werden, unter Verwendung der Differentialfiltertabelle 33,
Differentialfilteroperationen unterworfen, um die
Bilddaten WFY1 zu erhalten. Im Ergebnis enthalten die
Bilddaten WFY1 die Operationsergebnisse, die unter
Verwendung der in Fig. 4C dargestellten Tabelle 33
gewonnen wurden, als Dichtedaten. Wie Fig. 4C zeigt,
werden bei den Differentialfilteroperationen Änderungen
der Dichtedaten von Weiß nach Schwarz und von Schwarz nach
Weiß zwischen den Positionen Y1 und Y2 jeweils durch
positive und negative Werte dargestellt. Falls ein
Differentialoperationsergebnis negativ ist, werden die
Differentialwerte durch "0" dargestellt. Anschließend
speichert der Prozessor 15 die Bilddaten WFY1 über den
Bilddatenbus 21 im Bildspeicher 12-5 ab und gibt ein
Beendigungssignal ACK an die CPU 11 aus.
Als Antwort auf das ACK-Signal des Prozessors 15 sendet
die CPU 11 über den Steuerbus 20 einen Befehl zur
Durchführung einer vierten Differentialfilteroperation an
den Bilddaten WX an den Prozessor 15. Als Antwort auf den
Operationsbefehl der CPU 11 führt der Prozessor 15, unter
Anwendung der Differentialfiltertabelle 34, in der
gleichen Weise wie bei der Operation zur Gewinnung der
Bilddaten WFY1, Differentialfilteroperationen an den
Bilddaten WX aus, um die Bilddaten WFY2 zu erhalten. Wie
Fig. 4D zeigt, besitzt jedes Element der Tabelle 34 den
gleichen absoluten Wert wie das eines entsprechenden
Faktors der Tabelle 33, jedoch mit entgegengesetztem
Vorzeichen. Als Ergebnis wird ein positiver
Differentialwert erhalten, wenn sich alle Dichtedaten von
Schwarz nach Weiß ändern. In gleicher Weise wird im
vorliegenden Falle ein negativer Differentialwert
durch "0" dargestellt. Der Prozessor 15 speichert die
Bilddaten WFY2 im Bildspeicher 12-7 ab und gibt
anschließend ein Beendigungssignal ACK an die CPU 11.
In Schritt S14 gibt die CPU 11 als Antwort auf das
ACK-Signal des Prozessors 15 über den Steuerbus 20 einen
zusätzlichen Befehl an den Operationsprozessor 16, um
Bilddaten WY durch Addieren der Bilddaten WFY1 und WFY2
in der gleichen Weise zu erhalten wie im Falle der
Operation zur Gewinnung der Bilddaten WX. Als Antwort auf
den zusätzlichen Befehl liest der Prozessor 16 die
Differentialbilddaten WFY1 und WFY2 jeweils aus den
Bildspeichern 12-5 und 12-6 aus. Der Prozessor 16
verschiebt die Bilddaten WFY1 und WFY2 um FV/2 jeweils in
die Richtungen Y2 und Y1. Danach addiert der Prozessor 16
die Dichtedaten der entsprechenden Pixel beider
verschobener Bilddatengruppen und gewinnt die Bilddaten
WY. Im einzelnen erzeugt der Prozessor 16 aus einer
Bezugspixeladresse AY Leseadressen (AY-FV/2) und (AY+F/2)
und gibt sie jeweils an die Bildspeicher 12-5 und
12-6 aus. Bei dieser Operation liest der Prozessor 16
entsprechende Pixel aus und addiert ihre Dichtedaten.
Alle Pixel werden unter Verwendung der Bezugspixeladresse
abgetastet. Die Bilddaten WY werden unter der
Bezugspixeladresse AY des Bildspeichers 12-7
eingeschrieben. Danach gibt der Prozessor 16 ein
Beendigungssignal ACK an die CPU 11 aus.
In Schritt S16 sendet die CPU 11 als Antwort auf das
ACK-Signal des Prozessors 16 einen
Histogrammoperationsbefehl an den
Histogrammoperationsprozessor 17. Als Antwort auf den
Befehl der CPU 11 führt der Prozessor 17 eine
Histogrammoperation an den Bilddaten WY aus. Die CPU 11
erhält einen Maximalwert PY der Dichtedaten auf der Basis
des Dichtehistogramms der durch den
Histogrammoperationsprozessor 17 erhaltenen Bilddaten WY.
In Schritt S18 prüft die CPU 11, ob die maximalen
Dichtedaten PX gleich oder größer als ein bestimmter Wert
YC sind. Falls die Daten PY kleiner als der Wert YC sind,
wird bestimmt, daß keine Marke unter den Bilddaten WI
vorhanden ist, und dementsprechend wird ein
Fehlerbearbeitungsverfahren ausgeführt. Falls die Daten
PY gleich oder größer als der Wert YC sind, das bedeutet
Y in Schritt S18, wird die Operation des Schrittes S20
ausgeführt. Wenn die Marke 42 erfaßt wird, wie leicht aus
der Beschreibung zu den Bilddaten WX herzuleiten ist,
sollten diese Bilddaten WY eine einzelne Spitze in der
Mitte der Marke mit der senkrechten Länge FV aufweisen.
Ähnlich wie in dem Falle, daß Maximaldichtedaten mit
einem größeren als dem vorherbestimmten Wert von einer
Marke nicht gewonnen werden können, deren waagerechte
Länge nicht FH beträgt, und die zu Bilddaten WX gehört,
von denen die Pixel WY gewonnen werden, können auch die
Maximaldichtedaten PY, die größer als ein
vorherbestimmter Wert YC sind, nicht von einer Marke
gewonnen werden, deren senkrechte Länge nicht FV beträgt
und die den Bilddaten WY angehört. Das heißt, daß in
Schritt S20 ein Pixel, von dem maximale Dichtedaten PY
gewonnen werden, als Mitte einer rechteckigen Marke
bestimmt wird, deren waagerechte und senkrechte Längen im
wesentlichen jeweils den Wert FH und FV besitzen.
In Schritt S22 bereitet die CPU 11 die Umwandlungstabelle
(Abfragetabelle) 19 vor. Im einzelnen schreibt die CPU 11
zunächst die Dichtedaten, zum Beispiel 255 (oder 1), in
bezug auf ein Pixel mit einem Dichtewert nicht unter
einem vorherbestimmten Wert (Fehler E), und zweite
Dichtewerte, zum Beispiel 0, in bezug auf ein Pixel in
die Tabelle 19 ein, das einen Dichtewert nicht unter
einem vorherbestimmten Wert E besitzt. In Schritt S24
gibt die CPU 11 einen Datenumwandlungsbefehl für die
Bilddaten WY im Bildspeicher 12-7 an den
Datenumwandlungsprozessor 18 aus. Als Antwort auf den
Befehl der CPU 11 liest der Prozessor 18 die Dichtewerte
der entsprechenden Pixel der Bilddaten WY aus dem
Bildspeicher 12-7 aus. Unter Benutzung der ausgegebenen
Werte als Adressen erhält der Prozessor 18 die
umgewandelten Dichtedaten der Pixel unter Bezugnahme auf
die Abfragetabelle 19. Die gewonnenen Dichtedaten werden
im Bildspeicher 12-8 abgespeichert.
Die vorliegende Markenerfassungstechnik kann auf die
Zeichenerkennung angewendet werden. Beispielsweise können
in dem in Fig. 8 dargestellten Bildspeicher Zeichen 51
bis 54, die zwischen zwei rechteckigen Marken 41 und 42
vorhanden sind und deren relative Position in bezug auf
die Marken 41 und 42 im voraus bekannt sind, durch
Erfassen der Marken 41 und 42 der Bilddaten erkannt
werden.
Bei der oben beschriebenen Ausführungsform der Erfindung
wird eine schwarze Marke auf einem weißen Hintergrund
erfaßt. Soll eine weiße Marke auf einem schwarzen
Hintergrund erfaßt werden, kann die Markenerfassung mit
der vorliegenden Ausführungsform der Erfindung in der
gleichen Weise durch Ersetzen der Dichtedaten WId jedes
Pixels der digitalen Bilddaten WI durch, beispielsweise
(255-WId) in Schritt S2 durchgeführt werden. Alternativ
können die Differentialfiltertabellen 31 und 32 in
Schritt S4 miteinander vertauscht werden, und in gleicher
Weise können die Differentialfiltertabellen 33 und 34 in
Schritt S12 ausgetauscht werden.
Falls FH < FV ist, wird die Differentialfilterung
vorzugsweise in der umgekehrten Reihenfolge wie
bisher durchgeführt, das heißt, in der vertikalen und in
der horizontalen Richtung, um die Präzision der
Markenerfassung zu erhöhen.
Die Differentialfiltertabellen sind nicht auf die jeweils
in den Fig. 4A bis 4D dargestellten Tabellen 31 bis 34
beschränkt. Beispielsweise können andere
Differentialfiltertabellen mit anderen Koeffizienten, wie
etwa die in den Fig. 9A bis 9D dargestellten Tabellen 61
bis 64 oder die in den Fig. 10A bis 10D dargestellten
Tabellen 71 bis 74 verwendet werden.
In Schritt S20 wird die Position des Pixels mit dem
maximalen Dichtewert als zentrale Position der Marke
bestimmt. Wie aber aus Schritt S30 hervorgeht, kann der
Schwerpunkt von Pixeln mit einer Dichte, die gleich oder
größer als der vorherbestimte Wert E ist, als Mittelpunkt
der Marke berechnet und bestimmt werden.
Zusätzlich werden bei der obigen Ausführungsform der
Erfindung Markenbilddaten unter Verwendung der
Abfragetabelle erzeugt, nachdem die Maximumdichtewerte
erhalten wurden. Markenbilddaten können jedoch auch unter
Benutzung der Peakpositionen der Bilddaten WFX1, WFX2,
WFY1 und WFY2 erzeugt werden.
Weiter werden bei der obigen Ausführungsform des besseren
Verständnisses halber alle erzeugten Bilddaten jeweils in
unabhängigen Bildspeichern abgelegt. Die vorliegende
Erfindung ist aber nicht auf diese Vorgehensweise
beschränkt. Beispielsweise können die Bilddaten WX im
Bildspeicher 12-1 (der zur Speicherung der Bilddaten WI
benutzt wird); die Bilddaten WFY1 und WFY2 in den
Bildspeichern 12-2 und 12-3 (die jeweils zur Speicherung
der Bilddaten WFX1 und WFX2 benutzt werden); die
Bilddaten WY im Bildspeicher 12-1 und die Bilddaten WO
im Bildspeicher 12-2 oder 12-3 abgelegt werden. In diesem
Falle werden nur drei Bildspeicher 12-1 bis 12-3 benutzt.
Weiter wird bei der vorliegenden Ausführungsform der
Erfindung der nächste Bilddatenerzeugungsprozeß unter
Verwendung der erhaltenen Bilddaten durchgeführt, nachdem
ein Bildwert erhalten wurde. Wenn jedoch der Bilddatenbus
21 hinsichtlich der Anzahl der Leitungen vergrößert wird,
kann eine Vielzahl von Bilddatenerzeugungsprozessen
parallel durch Fließbandverarbeitung durchgeführt werden.
Im einzelnen kann die Erzeugung der Bilddaten EY unter
Verwendung der Bilddaten WFX1 und WFX2 parallel zur
Erzeugung der Bilddaten WFX2 im Fließbandverfahren
durchgeführt werden. Parallel zur Erzeugung der Bilddaten
WY kann durch das Fließbandverfahren die Erzeugung der
Bilddaten WFY1 ausgeführt werden. Desgleichen können
parallel zur Erzeugung der Bilddaten WFY2 die Bilddaten
WY im Fließbandverfahren erzeugt werden. Falls zwei
Differentialfilteroperationsprozessoren 15 eingesetzt
werden, können die Bilddaten WX im Fließbandverfahren
erzeugt werden, während gleichzeitig die Bilddaten WFX1
und WFX2 generiert werden. Dementsprechend können
parallel zur Erzeugung der Bilddaten WX die Bilddaten
WFY1 und WFY2 gleichzeitig im Fließbandverfahren
(Pipelining) erzeugt werden.
Claims (8)
1. Verfahren zur Feststellung des Vorhandenseins einer
Marke im Bild, die eine erste vorgegebene Länge (FH) in
einer ersten Richtung und eine zweite vorgegebene Länge
(FV) in einer zweiten Richtung aufweist, mit folgenden
Schritten:
- a) Erfassung erster digitaler Bilddaten (WI) des Bildes in Form einer Vielzahl von Pixeln,
- b) Gewinnung zweiter digitaler Bilddaten (WFX1) durch Anwendung eines ersten Differenzoperators (31) auf die ersten Bilddaten (WI) in der ersten Richtung,
- c) Gewinnung dritter digitaler Bilddaten (WFX2) durch Anwendung eines zweiten Differenzoperators (32) auf die ersten Bilddaten (WI) in der ersten Richtung,
- d) Verschieben der zweiten und dritten Bilddaten um die Hälfte der ersten Länge (FH) entgegengesetzt zueinander in der ersten Richtung,
- e) Gewinnung vierter Bilddaten (WX) durch Addieren der verschobenen zweiten und dritten Bilddaten,
- f) Feststellen des Auftretens eines maximalen Bilddatenwertes (PX) größer oder gleich einem vorbestimmten Wert (XC),
- g) Gewinnung fünfter digitaler Bilddaten (WFY1) durch Anwendung eines dritten Differenzoperators (33) auf die vierten Bilddaten (WX) in der zweiten Richtung,
- h) Gewinnung sechster digitaler Bilddaten (WFY2) durch Anwendung eines vierten Differenzoperators (34) auf die vierten Bilddaten (WX) in der zweiten Richtung,
- i) Verschieben der fünften und sechsten Bilddaten um die Hälfte der zweiten Länge (FV) entgegengesetzt zueinander in der zweiten Richtung,
- j) Gewinnung siebter Bilddaten (WY) durch Addieren der verschobenen fünften und sechsten Bilddaten, und
- k) Feststellen des Auftretens eines maximalen Bilddatenwertes (PY) größer oder gleich einem vorbestimmten Wert (YC).
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, daß
bei der Gewinnung von Bilddaten durch Anwendung eines
Differenzoperators zusätzlich eine Filterung der
Bilddaten erfolgt.
3. Verfahren nach einem der Ansprüche 1 oder 2,
dadurch gekennzeichnet, daß
der erste Differenzoperator einen positiven Wert an der
Stelle des Übergangs vom Bildhintergrund zur Marke
erzeugt und daß der zweite Differenzoperator einen
positiven Wert beim Übergang von der Marke zum
Bildhintergrund erzeugt.
4. Verfahren nach einem der Ansprüche 1 oder 3,
dadurch gekennzeichnet, daß
der erste Differenzoperator ein Sobeloperator und der
zweite Differenzoperator ein invertierter Sobeloperator
ist.
5. Verfahren nach einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet, daß
der dritte Differenzoperator einen positiven Wert an der
Stelle des Übergangs vom Bildhintergrund zur Marke
erzeugt und daß der vierte Differenzoperator einen
positiven Wert beim Übergang von der Marke zum
Bildhintergrund erzeugt.
6. Verfahren nach einem der Ansprüche 1 bis 5,
dadurch gekennzeichnet, daß
der dritte Differenzoperator ein Sobeloperator und der
vierte Differenzoperator ein invertierter Sobeloperator
ist.
7. Verfahren nach einem der Ansprüche 1 bis 6,
dadurch gekennzeichnet, daß
die Feststellung des Auftretens eines maximalen
Bilddatenwertes (PX) in Form einer Histogrammoperation
erfolgt und die Mitte der Marke auf der Grundlage des
derart ermittelten maximalen Bilddatenwertes (PX)
bestimmt wird.
8. Vorrichtung zur Durchführung des Verfahrens nach einem
der Ansprüche 1 bis 7, mit
- a) einem Differenzprozessor (15), der auf einen eingegebenen Differenzoperationsbefehl anspricht, zur Durchführung einer Differenzoperation an Bilddaten,
- b) einem Addierprozessor (16), der auf einen eingegebenen Addierbefehl anspricht, zum Verschieben von einen Bilddaten in einer Richtung um eine bestimmte Länge und zum Verschieben von anderen Bilddaten in eine entgegengesetzte Richtung um eine bestimmte Länge und zum Addieren der Bilddaten, und
- c) einem Steuergerät (11) zur Abgabe der Differenzoperationsbefehle und der Addierbefehle an den Differenzprozessor und den Addierprozessor und zur Feststellung des Auftretens eines maximalen Bilddatenwertes größer oder gleich einem vorbestimmten Wert.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63300902A JPH0650534B2 (ja) | 1988-11-30 | 1988-11-30 | マーク検出方式 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3939621A1 DE3939621A1 (de) | 1990-05-31 |
DE3939621C2 true DE3939621C2 (de) | 1994-12-15 |
Family
ID=17890504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3939621A Expired - Fee Related DE3939621C2 (de) | 1988-11-30 | 1989-11-30 | Verfahren und Vorrichtung zur Erfassung von Markendaten in Bilddaten |
Country Status (5)
Country | Link |
---|---|
US (1) | US5068908A (de) |
JP (1) | JPH0650534B2 (de) |
KR (1) | KR930002340B1 (de) |
DE (1) | DE3939621C2 (de) |
NL (1) | NL8902955A (de) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03282683A (ja) * | 1990-03-30 | 1991-12-12 | Hitachi Ltd | ノイズ量に自動的に適応するパターン検出方法および装置 |
FR2665597B1 (fr) * | 1990-07-31 | 1995-11-17 | Thomson Trt Defense | Procede et dispositif de localisation en temps reel de contours rectilignes dans une image numerisee, notamment pour la reconnaissance de formes dans un traitement d'analyse de scene. |
JPH0834544B2 (ja) * | 1990-08-14 | 1996-03-29 | 株式会社東芝 | 画像の復元処理方法 |
EP0588931A4 (en) * | 1991-06-13 | 1994-06-22 | Abbott Lab | Automated specimen analyzing apparatus and method |
JP3093409B2 (ja) * | 1992-01-10 | 2000-10-03 | 富士通株式会社 | 3次元計測装置 |
US5386480A (en) * | 1992-03-09 | 1995-01-31 | Hughes Aircraft Company | Amplitude ratio discrimination for MTI processors |
JP3350822B2 (ja) * | 1992-08-04 | 2002-11-25 | アイシン精機株式会社 | 画像上のエッジ検出方法 |
US5519793A (en) * | 1992-11-05 | 1996-05-21 | The United States Of America As Represented By The Secretary Of The Interior | Apparatus and method for computer vision measurements |
US5550933A (en) * | 1994-05-27 | 1996-08-27 | Duke University | Quadrature shape detection using the flow integration transform |
US5542280A (en) * | 1995-01-09 | 1996-08-06 | Chrysler Corporation | Automated gauge, assessment system and method |
JPH08233282A (ja) * | 1995-02-27 | 1996-09-10 | Shoichi Nomoto | ヒータ・テーブル |
GB9603262D0 (en) * | 1996-02-16 | 1996-04-17 | Bio Rad Micromeasurements Ltd | Positional measurements |
DE102004006907A1 (de) * | 2004-02-12 | 2005-08-25 | Ina-Schaeffler Kg | Spannsystem für einen Zugmitteltrieb |
CN102810155B (zh) * | 2011-05-31 | 2015-04-15 | 富士通株式会社 | 用于从图像中提取文本笔划图像的方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57157378A (en) * | 1981-03-25 | 1982-09-28 | Hitachi Ltd | Setting method of binary-coded threshold level |
US4581762A (en) * | 1984-01-19 | 1986-04-08 | Itran Corporation | Vision inspection system |
US4860374A (en) * | 1984-04-19 | 1989-08-22 | Nikon Corporation | Apparatus for detecting position of reference pattern |
JPH0672770B2 (ja) * | 1988-02-01 | 1994-09-14 | 豊田工機株式会社 | ロボットの物体認識装置 |
-
1988
- 1988-11-30 JP JP63300902A patent/JPH0650534B2/ja not_active Expired - Lifetime
-
1989
- 1989-11-28 US US07/442,538 patent/US5068908A/en not_active Expired - Lifetime
- 1989-11-29 KR KR8917380A patent/KR930002340B1/ko not_active IP Right Cessation
- 1989-11-30 DE DE3939621A patent/DE3939621C2/de not_active Expired - Fee Related
- 1989-11-30 NL NL8902955A patent/NL8902955A/nl active Search and Examination
Also Published As
Publication number | Publication date |
---|---|
NL8902955A (nl) | 1990-06-18 |
JPH0650534B2 (ja) | 1994-06-29 |
DE3939621A1 (de) | 1990-05-31 |
KR900008403A (ko) | 1990-06-04 |
KR930002340B1 (en) | 1993-03-29 |
JPH02148279A (ja) | 1990-06-07 |
US5068908A (en) | 1991-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3939621C2 (de) | Verfahren und Vorrichtung zur Erfassung von Markendaten in Bilddaten | |
DE2909153C2 (de) | Einrichtung zur digitalen Analyse von Bild- oder Zeichenmustern | |
DE3937950C2 (de) | ||
DE3305710A1 (de) | Schaltungsanordnung zur merkmalsgewinnung | |
DE102006000946B4 (de) | Verfahren und System zur Inspektion einer periodischen Struktur | |
EP0409310A2 (de) | Verfahren sowie Anordnung zum Bestimmen von Kanten in Bildern | |
EP0111026A1 (de) | Verfahren und Einrichtung zur kopierenden Retusche bei der elektronischen Farbbildreproduktion | |
DE2746969C2 (de) | Einrichtung zum Vergleichen von Mustern | |
EP0040796A2 (de) | Verfahren zum automatischen Klassifizieren von Bild- und Text- oder Graphikbereichen auf Druckvorlagen | |
CH627571A5 (de) | Vorrichtung und verfahren zur bestimmung charakteristischer einzelheiten in einem elektronisch abgetasteten bildmuster. | |
DE3110222A1 (de) | Verfahren zur partielle glaettenden retusche bei der elektronischen farbbildreproduktion | |
DE2432656A1 (de) | Verfahren und einrichtung zur normierung von schriftzeichen | |
DE3718620C2 (de) | ||
DE102008013789A1 (de) | Vorrichtung, Verfahren und Programm zum Eliminieren von Zeichenstörungen | |
DE3904235C2 (de) | Verfahren und Einrichtung zur Festlegung eines rechteckförmigen Bereiches auf einer Vorlage | |
EP0132453B1 (de) | Verfahren und Einrichtung zum Minimieren von Fehlern bei der digitalen Verarbeitung von elektrischen Signalen | |
DE3524505A1 (de) | Bilderkennungsvorrichtung | |
DE1774314B1 (de) | Einrichtung zur maschinellen zeichenerkennung | |
DE3009907C2 (de) | Speicheradressensignalgenerator für eine automatische Justiereinrichtung einer Fernsehkamera | |
DE2461651C3 (de) | Zählvorrichtung zum Zählen von Mustern | |
DE3726696A1 (de) | Verfahren zur schattierungskorrektur, die die auswirkung von stoerungen verhindert, und vorrichtung zur durchfuehrung des verfahrens | |
DE69935793T2 (de) | Vorrichtung zur bestimmung der leiterbahnstruktur | |
DE3714011A1 (de) | Verfahren und anordnung zum bildvergleich | |
EP0206214B1 (de) | Verfahren zur einheitlichen symbolischen Beschreibung von Dokumentenmustern in Form von Datenstrukturen in einem Automaten | |
WO1998031136A1 (de) | Verfahren zur bestimmung der geometriedaten von abtastvorlagen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |