DE19926120C2 - Bilderkennungsvorrichtung - Google Patents
BilderkennungsvorrichtungInfo
- Publication number
- DE19926120C2 DE19926120C2 DE19926120A DE19926120A DE19926120C2 DE 19926120 C2 DE19926120 C2 DE 19926120C2 DE 19926120 A DE19926120 A DE 19926120A DE 19926120 A DE19926120 A DE 19926120A DE 19926120 C2 DE19926120 C2 DE 19926120C2
- Authority
- DE
- Germany
- Prior art keywords
- recognized
- end point
- image
- detected
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00326—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/12—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using the sheet-feed movement or the medium-advance or the drum-rotation movement as the slow scanning component, e.g. arrangements for the main-scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/19—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
- H04N1/191—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
- H04N1/192—Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
- H04N1/193—Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Facsimile Scanning Arrangements (AREA)
Description
Die Erfindung bezieht sich auf eine Bilderkennungsvorrichtung zur Verwendung in einer
Druckprüfvorrichtung zum Prüfen von Druckzuständen von Drucksachen, zum Erkennen
von Bildern auf den transportierten Drucksachen.
In einer Bilderkennungsvorrichtung zum Erfassen bzw. Aufnehmen von Bildern, als
Bilddaten, auf beförderten zu erkennenden Objekten (beispielsweise Drucksachen) und zu
ihrem Vergleich mit einem Referenzbild zu ihrer Identifizierung ist es notwendig, das
Referenzbild genau mit einem Bild auf jedem zu erkennenden Objekt auszurichten, um das
Ausmaß der Übereinstimmung zwischen beiden abzuschätzen. Bei einer Bilderkennungs
vorrichtung verdreht sich oder verschiebt sich das zu erkennende Objekt jedoch während
es befördert wird und verschiedene Objekte, die erkannt werden sollen, nehmen unter
schiedliche Förderzustände ein.
Im Hinblick auf das Vorstehende ist notwendig, zu erkennende Objekte einzeln genau zu
erfassen. Für den Fall, daß bei einer herkömmlichen Druckvorrichtung ein Erkennungs
bereich eingebaut ist, wurde ein Erfassungsverfahren vorgeschlagen, bei dem das Erfassen
und Positionieren unter Bezugnahme auf eine Marke ("+", die "Registermarke" genannt
wird, oder eine Linie) durchgeführt wird, die zusammen mit einem zu erkennenden Objekt
auf ein Medium gedruckt wird. Wenn das Format eines zu erkennenden Objekts bekannt
ist, im Falle eines Dokuments, einer Zeitung oder einer Fahrerlaubnis, wird des weiteren
manchmal ein waagrechter Strich in dem zu erkennenden Objekt als ein Bezug zur Positio
nierung verwendet.
Die Japanische Patentanmeldung KOKAI Veröffentlichung Nr. 6-318246 beschreibt
zusätzlich ein Verfahren, das verwendet wird, wenn innerhalb eines zu erkennenden
Objektes keine Referenzmarke vorhanden ist. Genauer beschreibt die Druckschrift ein
Verfahren zum Korrigieren und Positionieren eines Bildes auf Basis einer Information, die
von einem Sensor zum Erfassen des Beförderungszustandes eines zu erkennenden Objektes
geliefert wird.
Wie vorstehend beschrieben, wurde ein Verfahren zum Drucken einer Positionierungs
referenzmarke ebenso wie ein zu erkennendes Objekt, ein Verfahren zur Durchführung
einer Positionierung unter Verwendung eines horizontalen Striches innerhalb eines zu
erkennenden Objektes oder ein Verfahren, das mit einem Sensor zum Sensieren eines
Beförderungszustandes arbeitet, verwendet. Diese Verfahren haben jedoch die nachfolgend
beschriebenen Nachteile.
Bei dem Verfahren, bei dem eine Positionierungsreferenzmarke ebenso wie das zu erken
nende Objekt gedruckt wird, ist es notwendig, vorher ebenso wie ein zu erkennendes
Objekt ein Muster als Referenzmarke außerhalb des zu erkennenden Objektes zu drucken.
Weiter ist es notwendig, einen Schneidmechanismus vorzusehen, um das Referenzmarken
muster nach dem Drucken zu entfernen.
Das Verfahren zur Durchführung der Positionierung unter Verwendung eines waagrechten
Striches innerhalb eines zu erkennenden Objektes verwendet innerhalb des Objektes ein
Muster und ist daher nicht mit dem vorgenannten Problem behaftet. Dieses Verfahren kann
jedoch nicht auf ein zu erkennendes Objekt angewendet werden, das keinen waagrechten
Referenz- bzw. Bezugsstrich enthält.
Weiterer fordert ein Verfahren, das einen Sensor zum Sensieren eines Beförderungs
zustandes verwendet, zusätzlich zu einem Sensor zum Aufnehmen eines Bildes einen
solchen Sensor zum Sensieren eines Beförderungszustandes, was bedeutet, daß das
Verfahren eine Großserienvorrichtung erfordert.
Die EP 0 342 060 offenbart eine Bildverarbeitungsvorrichtung, um genauer zu bestimmen,
ob ein eingelesenes Bild einem vorbestimmten Bild entspricht. Mit einer derartigen
Vorrichtung soll das Kopieren von Geldscheinen verhindert werden. Zur Bestimmung ob ein
zu kopierendes Original eine Banknote ist, detektiert eine Endpunktdetektionsschaltung einen
Endpunkt eines Bildes des Originals. Ferner detektiert eine Winkeldetektionsschaltung einen
Rotationswinkel auf der Basis des Ergebnisses der Detektion der
Endpunktdetektionsschaltung.
Eine derartige Vorrichtung ist jedoch zum Erfassen und Erkennen von beförderten Objekten
ungeeignet, da ein mehrmaliges Scannen notwendig ist.
Die EP 0 704 821 betrifft ein Bildverarbeitungsverfahren bei dem Objekte abgebildet
werden, die auf einem Förderband kontinuierlich bereitgestellt werden. Dabei erhält ein
Bildverarbeitungsgerät über eine Kamera ein Bild eines Objekts und detektiert eine
Fehlerfassung des Objektbildes in Bezug auf ein zuvor aufgenommenes Modellbild.
Die US 5,216,724 offenbart eine Vorrichtung zum Lesen eines Bildes, speziell zur genauen
Identifizierung von Geldscheinen, um ein Kopieren dieser zu verhindern. Hierzu wird eine
Positionsinformation eines Originals bestimmt, aus einem bestimmten Teil des Originals ein
Datenmuster extrahiert und mit einem vorbestimmten Muster verglichen. Jedoch können
auch bei dieser Vorrichtung nur Objekte erfaßt und erkannt werden, die nicht befördert
werden.
Aufgabe der Erfindung ist die Bereitstellung einer Bilderkennungsvorrichtung mit der
beförderte Objekte genau erfaßt und erkannt werden können, selbst wenn
aufeinanderfolgende Objekte in ihrer Position verschieden sind.
Ein Liniensensor liest ein zu erkennendes, befördertes Objekt und speichert in einem
Bildspeicher Bilddaten, die das Objekt anzeigen. Eine Parametereingabesektion gibt, als
Parameter, den Luminanzunterschied zwischen dem Objekt und seinem Hintergrund, die
Beförderungsbedingungen, usw., ein. Eine Endpunkterfassungssektion erfaßt die Grenze
zwischen dem Bild auf dem Objekt, das in dem Bildspeicher gespeichert ist, und dem
Hintergrund, auf der Basis von Paaren von Endpunkten, die auf vertikalen und horizonta
len Linien angeordnet sind, die durch das zu erkennende Objekt hindurchgehen. Dabei
verwendet die Endpunkterfassungssektion die Parameter, um eine Mehrzahl von Paaren
von Endpunkten zu erfassen, ohne durch externes Rauschen oder einen Fleck auf dem
Objekt beeinflußt zu werden.
Eine Längenerfassungssektion erfaßt vertikale und horizontale Längen des zu erkennenden
Objekts, und eine Positionsbestimmungssektion bestimmt die vier Ecken und das Zentrum
des gesamten zu erkennenden Objekts unter Verwendung der erfaßten Längen. Eine
Erkennungssektion vergleicht das von der Bildeingabesektion eingegebene Bild mit Refe
renzbilddaten, die in einem Referenzbilddatenspeicher gespeichert sind, wodurch ein Bild
des Objekts erkannt wird.
Die Positionsbestimmungssektion enthält eine Extraktionssektion zum Extrahieren einer
Teilfläche des zu erkennenden Objektes auf der Basis der Eckkoordinaten, die von einem
Eckbeurteilungssektion beurteilt werden. Die Erkennungssektion enthält eine Sektion bzw.
einen Sektion zum Vergleichen der von der Extraktionssektion extrahierten Teilfläche mit
einer entsprechenden Fläche in dem Referenzbild, wodurch das von der Bildeingabesektion
eingegebene Bild erkannt wird.
Weiter enthält die Erkennungssektion eine Bestimmungssektion zum Vergleichen der
Längen, die von der Längenbestimmungssektion geliefert werden, mit einem Abstand
zwischen jedem Paar von Endpunkten, die von der Endpunkterfassungssektion geliefert
werden, zum Extrahieren ihrer effektiven Endpunktpaareinformation und zum Bestimmen,
auf der Basis der Anzahl der extrahierten Paare von Endpunkten, ob oder ob nicht die
Position des gesamten zu erkennenden Objekts erfaßt werden kann; eine Akkumulierse
ktion zum Akkumulieren von Endpunktpaarinformation, die das zu erkennende Objekt
betrifft, wenn die Bestimmungssektion bestimmt, daß die Position des zu erkennenden
Objekts nicht erkannt werden kann; einen Anzeigesektion zum Anzeigen eines Bestim
mungsergebnisses der Bestimmungssektion, wenn das Ergebnis anzeigt, daß die Position
des gesamten zu erkennenden Objektes nicht erfaßt werden kann; und einen Schätzbereich
zum Schätzen bzw. Bewerten eines unnormalen Bereiches der Bilderkennungsvorrichtung
auf Basis der Endpunktinformation, die von der Akkumuliersektion akkumuliert ist.
Wenn bei der erfindungsgemäßen Vorrichtung ständig Fälle, in denen das zu erkennende
Objekt nicht erfaßt werden können, aufgetreten sind, warnt die Vorrichtung den Benutzer
und schätzt einen unnormalen Bereich von ihr ab. Auf diese Weise kann ein unnormaler
Bereich, wenn vorhanden, in einem frühen Zustand erfaßt bzw. festgestellt werden.
Zusätzlich wird der Beförderungszustand jedes zu erkennenden Objekts beurteilt, und die
Parameter werden auf Basis des Beurteilungsergebnisses verändert. Entsprechend kann das
zu erkennende Objekt genauer erfaßt werden.
Zusätzliche Ziele und Vorteile der Erfindung werden in der folgenden Beschreibung
erläutert und aus der Beschreibung offensichtlich oder werden bei Umsetzung der Erfin
dung in die Praxis gelernt. Die Ziele und Vorteile der Erfindung werden realisiert und
mittels der Instrumentierungen und Kombination erhalten, auf die nachfolgend genauer
hingewiesen wird.
Die nachfolgenden Zeichnungen, die einen Teil der Beschreibung bilden, illustrieren
derzeit bevorzugte Ausführungsformen der Erfindung und zusammen mit der allgemeinen,
vorstehend gegebenen Beschreibung und der nachfolgend detaillierten Beschreibung der
bevorzugten Ausführungsformen dienen sie dazu, die Prinzipien der Erfindung zu erläu
tern.
Es zeigen:
Fig. 1 ein schematisches Blockschaltbild, das den Aufbau einer Bilderkennungsvor
richtung entsprechend einer ersten Ausführungsform der Erfindung darstellt;
Fig. 2 ein Blockschaltbild des Aufbaus einer Parametereingabesektion;
Fig. 3 die Beziehung zwischen einem in einem Liniensensor enthaltenen Leseelement
und einem Bildspeicher;
Fig. 4 den Bereich des Lesefeldes eines Liniensensors,
Fig. 5 ein Beispiels eines zu erkennenden Objektes;
Fig. 6 eine Ansicht zur Erläuterung der Erfassung eines Endpunktes;
Fig. 7 ein Flußdiagramm zur Erläuterung eines Verfahrens zum Erfassen des End
punktes;
Fig. 8A und 8B Ansichten zur Erläuterung eines Beispieles einer Art einer fehlerhaften
Erfassung des Endpunktes;
Fig. 9 ein Flußdiagramm zur Erläuterung der Vorgänge einer Längenerfassungssek
tion und einer Sektion zur Bestimmung der Position eines ganzen Objektes;
Fig. 10A bis 10D Flußdiagramme zur Erläuterung im Detail des Betriebs der Längenerfas
sungssektion und der Sektion zur Bestimmung der Position des ganzen Objek
tes;
Fig. 11 eine Ansicht von Paaren von Endpunkten, die in vertikaler Richtung erfaßt
werden;
Fig. 12A bis 12F Ansichten zur Erläuterung des Betriebs der Sektion zur Bestimmung der
Position des ganzen Objekts;
Fig. 13 eine Ansicht zur Erläuterung eines Beispiels, in dem die Position des gesamten
Bildes eines zu erkennenden Objektes von einem Speicher bestimmt wird;
Fig. 14 ein schematisches Blockschaltbild zur Erläuterung des Aufbaus einer Bilderken
nungsvorrichtung entsprechend einem zweiten Ausführungsbeispiel der Erfin
dung;
Fig. 15 eine Ansicht zur Erläuterung einer Teilfläche innerhalb eines Bildes eines zu
erkennenden Objekts;
Fig. 16 ein schematisches Blockschaltbild zur Erläuterung des Aufbaus einer Bilderken
nungsvorrichtung entsprechend einer dritten Ausführungsform der Erfindung;
Fig. 17 eine Ansicht zur Erläuterung eines Beispiels der Inhalte eines Speichers zum
Akkumulieren unnormaler Erfassungsdaten;
Fig. 18 eine Ansicht eines Beispiels des anzeigenden Bildschirms einer Anzeigesektion
für unnormale Erfassung;
Fig. 19 ein Flußdiagramm zur Erläuterung eines Verfahrens, wie es in einer Schätzsektion
eines unnormalen Bereiches abläuft, und
Fig. 20 ein schematisches Blockschaltbild zur Erläuterung des Aufbaus einer Bilderken
nungsvorrichtung entsprechend einer vierten Ausführungsform der Erfindung.
Die Ausführungsformen der Erfindung werden im folgenden unter Bezugnahme auf die
Zeichnungen erläutert.
Im folgenden wird eine erste Ausführungsform beschrieben.
Fig. 1 ist ein Blockschaltbild, das den Aufbau einer Bilderkennungsvorrichtung entspre
chend einer ersten Ausführungsform der Erfindung zeigt. Bei angenommen, daß ein zu
erkennendes Objekt (das lediglich als "Objekt" bezeichnet wird) P, wie eine Drucksache,
in einer durch den Pfeil in Fig. 1 bezeichneten Richtung befördert wird. Ein auf das
beförderte Objekt P gedrucktes oder sonstwie aufgebrachtes Bild, das erkannt werden soll,
wird von einer Bildeingabesektion 101 gelesen und eingegeben. Die Bildeingabesektion
101 enthält eine Lichtquelle 102 zum Abstrahlen von Licht auf das beförderte Objekt P
und einen Liniensensor 103, der als photoelektrischer Wandler zum Empfang des von dem
zu erkennenden Objekt P reflektierten oder durch es hindurchgehenden Lichts dient und
das Licht in ein elektrisches Signal umwandelt. Die Lichtquelle und der Liniensensor 103
sind derart angeordnet, daß ihre Längen senkrecht zur Beförderungsrichtung des zu
erkennenden Objekts P sind.
Eine Parametereingabesektion 104 wird verwendet, um Information auf bzw. über das zu
erkennende Objekt P oder den erlaubten Beförderungsbereich einzugeben und enthält eine
Eingabesektion 111, wie ein Tastenfeld, eine Zehnertastatur, eine Maus, ein Mundstück,
ein Berührfeld usw., eine Anzeigesektion 112, wie ein LED zum Anzeigen der eingegebe
nen Daten, und einen Speicher 113, der Parameter speichert. Wenn vorher eine elektronische
Datei, die Parameter speichert, vorbereitet wird, können die Parameter in den
Speicher 113 geladen werden.
Das Ausgangssignal des Liniensensors 103 wird in der Bildeingabesektion zunächst
digitalisiert und dann in einem Bildspeicher 105 gespeichert. Die in dem Bildspeicher 105
gespeicherten Bilddaten werden zu einer Endpunkterfassungssektion 106 und einer Erken
nungssektion 109 übertragen.
Die Endpunkterfassungssektion 106 erfaßt aus den von dem Bildspeicher 105 zur Ver
fügung gestellten Bilddaten Endpunkte, die Grenzpunkte zwischen dem zu erkennenden
Objekt P und seinem Hintergrund sind. Eine Längenerfassungssektion 107 erfaßt die
vertikale Länge und die seitliche oder horizontale Länge des zu erkennenden Objekts P auf
der Basis der von der Endpunkterfassungssektion 106 erfaßten Endpunkte und vergleicht
die erfaßten Längen mit allen Abständen zwischen den Endpunkten, wodurch bestimmt
wird, ob oder ob nicht das erfaßte Paar von Endpunkten wirksam ist.
Eine Gesamtobjektpositionsbestimmungssektion 108 bestimmt die Position des gesamten
Objekts P auf Basis der von der Längenerfassungssektion 107 erfaßten Längen. Die
Erkennungssektion 109 erkennt ein Bild auf dem zu erkennenden Objekt P auf Basis der
von der Ganzobjektpositionsbestimmungssektion 108 bestimmten Position und bezüglich
der Referenzbilddaten (Verzeichnisdaten), die in einem Referenzbilddatenspeicher 110
gespeichert sind.
Jeder Prozeß wird im folgenden im Detail beschrieben.
Fig. 3 zeigt die Beziehung zwischen jedem der in dem Liniensensor 103 enthaltenen
Leseelemente und Bilddaten, die in den Bildspeicher 105 gespeichert sind. Gemäß Fig. 3
zeigt ein Bild auf den zu erkennenden, beförderten Objekt P, daß das Objekt P verdreht
ist bzw. schief liegt. Dieser Verdrehungszustand wird durch die Drehung des zu erkennen
den Objekts P verursacht, die auftritt, wenn sein Bild eingegeben wird, und wird als ein
Faktor betrachtet, der ausgeschlossen werden sollte, wenn das Objekt P erkannt wird.
Der Liniensensor 103 enthält eine Anzahl N von Leseelementen. Diese Anzahl wird auf
Basis der Breite des zu erkennenden Objekts P, einer erwünschten Auflösung, einem
geschätzten Ausmaß an Verdrehung bzw. Verkippung und einer geschätzten vertikalen
Verschiebung senkrecht zur Förderrichtung (nachfolgend als "Verschiebung" bezeichnet)
bestimmt.
Wenn der Bereich der Verschiebung durch die Eigenschaften des Fördermechanismus
begrenzt werden kann, ist die maximale Anzahl A der Leseelemente durch die folgende
Gleichung (1) gegeben, wie aus Fig. 4 ersichtlich:
Anzahl A der Leseelemente =
Anzahl A der Leseelemente =
wobei x (mm) die Länge auf einer Seite des zu erkennenden Objekts P bezeichnet, die
senkrecht zur Förderrichtung ist,
y (mm) eine andere Seite senkrecht zu der Seite bezeichnet,
d (die Anzahl der Linien je mm) die Auflösung des Lesens,
±SL (mm) den Bereich der Verschiebung und "2" in der Klammer die Anzahl von Pixeln im Rand (dies bedeutet, daß selbst wenn das Ausmaß der Verschiebung einen maximalen Wert in dem zulässigen Bereich annimmt, der Hintergrund mittels wenigstens zwei Pixeln gelesen werden kann).
y (mm) eine andere Seite senkrecht zu der Seite bezeichnet,
d (die Anzahl der Linien je mm) die Auflösung des Lesens,
±SL (mm) den Bereich der Verschiebung und "2" in der Klammer die Anzahl von Pixeln im Rand (dies bedeutet, daß selbst wenn das Ausmaß der Verschiebung einen maximalen Wert in dem zulässigen Bereich annimmt, der Hintergrund mittels wenigstens zwei Pixeln gelesen werden kann).
Die wirksame Lesebreite, die durch die Gleichung (1) gegeben ist, ermöglicht das Erfassen
eines Bildes des gesamten zu erkennenden Objekts P unabhängig vom Auftreten der
"Verdrehung" oder "Verschiebung". Wenn der Bereich der Verdrehung durch den Förder
mechanismus begrenzt werden kann, ist die minimale Anzahl B von Leseelementen durch
folgende Gleichung (2) gegeben:
Anzahl B der Leseelemente =
Anzahl B der Leseelemente =
wobei bedeutet:
θ das Ausmaß der Verdrehung und
x (mm) die Länge der einen Seite des Objekts P, die senkrecht zur Förderrichtung ist. Die Anzahl B von Leseelementen ist kleiner als die Anzahl A von Leseelementen. Dies bedeu tet, daß ein Bild des gesamten Objekts P unter Verwendung einer kleinen Anzahl von Leseelementen eingegeben werden kann, wenn das Ausmaß der Verdrehung begrenzt werden kann.
θ das Ausmaß der Verdrehung und
x (mm) die Länge der einen Seite des Objekts P, die senkrecht zur Förderrichtung ist. Die Anzahl B von Leseelementen ist kleiner als die Anzahl A von Leseelementen. Dies bedeu tet, daß ein Bild des gesamten Objekts P unter Verwendung einer kleinen Anzahl von Leseelementen eingegeben werden kann, wenn das Ausmaß der Verdrehung begrenzt werden kann.
Die von der Parametereingabe Sektion 104 eingegebenen Parameter sind genauer die
vertikale Länge und die seitliche oder horizontale Länge des zu erkennenden Objekts P,
der Luminanzunterschied zwischen dem Hintergrund und dem zu erkennenden Objekt P
und die Bildleseauflösung. Die vertikale und horizontale Länge des zu erkennenden
Objekts P werden in genau dem gleichen Maßstab (mm) ausgedrückt, während die in dem
Bildspeicher 105 einzugebende Größe durch Multiplikation des genau gleichen Maßstabs
mit der Bildleseauflösung (Linien/mm) erhalten wird.
Bezugnehmend auf die Fig. 5 werden spezielle Beispiele der Parameter beschrieben. In
Fig. 5 stellt Y die vertikale Länge des zu erkennenden Objekts P und X die horizontale
Länge dar. Unter der Annahme, daß auf einem äußeren Umfangsbereich des zu erkennen
den Objekts P kein Muster vorhanden ist und daß AG die durchschnittliche Luminanz eines
gestrichelten Umfangsbereiches 502 des Objekts P darstellt und BG die durchschnittliche
Luminanz des Hintergrundes 502 des Objekts P darstellt, beträgt der Luminanzunterschied
zwischen im Hintergrund 502 und dem zu erkennenden Objekt P:
sub = |AG - BG|.
Wenn der Luminanzunterschied klein ist, kann das zu erkennende Objekt in einfacher
Weise durch Abdunkeln des Hintergrundes erkannt werden, wenn ein Umfangsbereich 501
des Objekts P hell ist, und Aufhellen des Hintergrundes, wenn der Umfangsbereich 501
dunkel ist.
Weiter kann das Ausmaß der Verdrehung oder Verschiebung ebenfalls als ein Parameter
eingegeben werden. In diesem Fall kann die Erfassungseigenschaft weiter verbessert
werden.
Die Endpunkterfassungssektion 106 erfaßt spezifisch jedes Paar von Grenzpunkten zwi
schen dem zu erkennenden Objekt P und im Hintergrund 502 aus wenigstens einer zweiten
Spalte und einer zweiten Zeile einer Pixelmatrix in dem Bildspeicher 105. Die Unter
scheidung des zu erkennenden Objekts P von dem Hintergrund 502 wird auf der Basis des
Luminanzpegels jedes Pixels in dem Bildspeicher 105 durchgeführt. Der Luminanzpegel
jedes Pixels nimmt einen Wert an, der durch Digitalisieren des Ausgangssignals des
Liniensensors 103 erhalten wird. In der nachfolgenden Beschreibung kann die Luminanz
einen von 256 Pegeln haben, da jedes Pixel durch 8 Bit digitalisiert wird. Entsprechend
haben weiß und schwarz die Pegel "255" und "0".
Bezugnehmend auf die Fig. 6 und 7 wird die Erfassung von Endpunkten in der horizonta
len Richtung beschrieben.
Fig. 6 zeigt einen Fall, bei dem die Endpunkte einer Reihe j erfaßt werden. Ein Quadrat
entspricht einem Pixel und in diesem Fall ist der Hintergrund dunkel; ein Umfangsbereich
des zu erkennenden Objekts P ist hell und ein zentraler Bereich des Objekts P hat unter
schiedliche Dichte. (i, j) und (i + r, j) zeigen erfaßte Endpunkte.
Fig. 7 ist ein Flußdiagramm zur Erläuterung der Art der Erfassung der Endpunkte. Die
Art der Erfassung wird unter Bezugnahme auf das Flußdiagramm erläutert. Das Flußdia
gramm bezieht sich auf ein Verfahren zur Erfassung eines linksseitigen Endpunktes. Sei
zunächst angenommen, daß die Luminanz eines Zielbildes durch img (x, y) gegeben ist,
die abgetastete Zeile durch j, die horizontale Länge des zu erkennenden Objektes P durch
W, die vertikale Länge des Objekts P durch H, der Luminanzunterschied zwischen dem
Objekt P und seinem Hintergrund durch "sub" (Parameter), und die Länge eines Bereiches
um das Objekt P, in dem kein Muster vorhanden ist, durch K (Schritt S1).
Der Luminanzunterschied "buf" zwischen einem Pixel (0, j) und einem rechts be
nachbarten Pixel wird berechnet. Dann wird der Luminanzunterschied "buf" zwischen dem
Pixel (0, j) und einem Pixel rechts neben dem benachbarten Pixel berechnet. Diese
Berechnung dauert an, bis ein erstes Pixel erreicht wird, bei dem der Unterschied "buf"
größer als der Luminanzunterschied "sub" zwischen dem zu erkennenden Objekt P und
dem Hintergrund ist, wobei dieser Luminanzunterschied "sub" als ein Parameter eingege
ben wird (Schritt S6). Wenn der Abstand zwischen dem Zielpixel und dem Pixel (0, j) die
Hälfte der Diagonallinie des zu erkennenden Objekts P überschreitet (wenn die Antwort
auf die Frage im Schritt S3 "nein" ist) bevor das erste Pixel erreicht wird, wird die
Abtastung beendet, und es wird festgestellt, daß kein Endpunkt, der wirksam ist, um die
Position des zu erkennenden Objekts P zu bestimmen, gefunden werden konnte.
Der Abtaststart wird bei der vorliegenden Ausführungsform auf "0, j" gesetzt; er kann
jedoch begrenzt werden, wenn der Bereich durch Verschiebung begrenzt wird. Genauer sei
angenommen, daß die tatsächliche Länge einer Seite eines Objekts senkrecht zur Förder
richtung x (mm) beträgt und der Bereich der Verschiebung ±SL (mm) beträgt, dann
genügt es, wenn die Abtastung von einem Punkt aus beginnt, der von dem Zentrum des
Gesichtsfeldes um (x/2) + SL + 1 getrennt ist.
Wie in Fig. 8A dargestellt, kann das Pixel, das als Grenzpunkt zwischen dem zu erkennen
den Objekt P und dem Hintergrund erfaßt wurde, ein Pixel sein, das aufgrund des Ein
flusses von Rauschen ein Pixel ist, das außerhalb des aktuellen Pixels angeordnet ist.
Wenn das zu erkennende Objekt P ein Ende aufweist, das beispielsweise aufgrund eines
Fleckens verformt ist, wie in Fig. 8B dargestellt, kann das Pixel innerhalb des Endes des
Objekts P liegen.
Andererseits wird angenommen, daß ein Umfangsbereich des zu erkennenden Objekts P
(der schraffierte Umfangsbereich 501 in Fig. 5) kein Muster aufweist. Mit anderen Worten
besteht der Umfang des zu erkennenden Objekts P aus Pixeln mit ähnlichen Luminanzwer
ten. Diese Eigenschaft wird verwendet, um Schwankungsfaktoren, wie Rauschen, einen
Fleck usw. auszuschließen bzw. zu unterdrücken.
Genauer wird in den Schritten S8-S13 der Erfindung der Luminanzunterschied "buf"
zwischen der Luminanz des Zielpixels und der Luminanz "back" eines Pixels, das un
mittelbar bevor einem als Grenzpunkt zwischen dem zu erkennenden Objekt P und dem
Hintergrund (d. h. ein Pixel, das in dem Hintergrund enthalten und dem zu erkennenden
Objekt P am nächsten ist) bestimmten Pixel erfaßt wurde, für jedes einer Anzahl K von
Pixeln berechnet. Wenn die berechneten Luminanzunterschiede alle größer sind als der
Parameter "sub" (der Luminanzunterschied zwischen dem zu erkennenden Objekt P und
dem Hintergrund) wird die Positionsinformation (i + 1, j) des ersten erfaßten Pixels als der
Endpunkt extrahiert.
Wenn ein rechtsseitiger Endpunkt erfaßt wird, wird das Abtasten auf linksseitiges Abtasten
verändert. Wenn ein vertikaler Endpunkt erfaßt wird, kann er durch Ausführen einer
Aufwärtsabtastung und Abwärtsabtastung einer bestimmten Spalte erfaßt werden.
Die Endpunktbestimmung wird ausgeführt, indem wenigstens zwei Paare von horizontalen
oder vertikalen Punkten erfaßt werden. Vorzugsweise sollten so viele Paare wie die Zeit
zuläßt erfaßt werden. Wenn es notwendig ist, die Anzahl der zu erfassenden Paare zu
begrenzen, werden waagrecht abgetastete Zeilen oder senkrecht abgetastete Spalten über
einen weiten Bereich des zu erkennenden Objekts P ohne Bereiche des Objekts P nahe
seinen vier Ecken ausgewählt. Als Ergebnis kann eine Endpunkterfassung über einen
aufgrund einer Verdrehung schmaleren Bereich als eine wirksame Breite oder eine End
punkterfassung, bei der eine aufgrund eines Fleckens nicht mögliche Erfassung unterdrückt
wird, verwirklicht werden.
Bezugnehmend auf die Fig. 9-13 wird die Längenbestimmungssektion 107 und die Ge
samtobjektpositionsbestimmungssektion 108 beschrieben.
Fig. 9 ist ein Flußdiagramm zur groben Erläuterung der Längenerfassungssektion 107 und
der Gesamtobjektpositionsbestimmungssektion 108. Zunächst wählt die Längenerfassungs
sektion 107 aus den Paaren von Endpunkten, die von der Endpunkterfassungssektion 106
erfaßt wurden, die wirksam sind, um die Position des gesamten Objekts P zu bestimmen
(Schritt S20).
Fig. 10A ist ein Flußdiagramm zur Erläuterung des Schrittes S20 im Detail. Die Längen
erfassungssektion 107 berechnet den Abstand zwischen dem von der Endpunkterfassungs
sektion 106 erfaßten Endpunkten, wodurch bestimmt wird, ob oder ob nicht der Abstand
den Bedingungen genügt. Genauer, wenn eine ideale Länge und ein Verdrehungsbereich
in der Parametereingabesektion 104 eingegeben sind, berechnet die Längenbestimmungs
sektion 107 den Abstand D zwischen den Endpunkten (Schritt S35), setzt die ideale Länge
auf x und den Verdrehungsbereich auf θ (S30). Danach wird im Schritt S36 bestimmt, ob
oder ob nicht der berechnete Abstand D innerhalb eines Bereiches von x zu x/cosθ liegt.
Das Paar von Endpunkten, die dieser Bedingung genügt, wird als effektiv bestimmt und
für das Paar wird ein effektiv Flag gesetzt (Schritt S38). Wenn der Verdrehungsbereich
nicht begrenzt ist, wird das Paar von Endpunkten, deren Abstand kleiner als die Diagonal
linie des zu erkennenden Objekts P ist, als effektiv bestimmt. Der Längenerfassungsbereich
107 führt eine solche Bestimmung für jedes vertikale oder horizontale Paar von Endpunk
ten durch, wodurch die effektiven vertikalen und horizontalen Paare von Endpunkten
bestimmt werden.
Anschließend berechnet die Längeerfassungssektion 107 eine vertikale Länge (Schritt S21).
Fig. 11 ist eine Ansicht zur Erläuterung der Berechnung der vertikalen Länge. In Fig. 11
bezeichnen schwarze Punkte extrahierte Endpunkte und diejenigen der Endpunkte, die
jeweils durch eine gestrichelte Linie verbunden sind, sind ein entsprechendes Paar der
Endpunkte. Die senkrechte Länge kann auf den Mittelwert der Abstände zwischen den
Paaren von Endpunkten gesetzt werden. Es gibt jedoch ein Paar von Endpunkten, nämlich
das rechteste Paar in Fig. 11, deren Abstand aufgrund des Einflusses der Verdrehung
kleiner ist als die tatsächliche Länge. Auch wenn die Endpunktpositionen irrtümlicherweise
aufgrund eines Flecks bestimmt wurden, hat der Abstand eines Paares von Endpunkten
einen kleineren Wert.
Um diese Einflußfaktoren auszuschalten, wird die vertikale Länge auf das Maximum der
Entfernungen zwischen den Endpunkten gesetzt oder auf den Mittelwert dieser Abstände
zwischen verschiedenen Paaren von Endpunkten, die den maximalen und die dazu näheren
einschließen. Fig. 10B ist ein Flußdiagramm zur Erläuterung, wie der maximale Endpunkt
abstand erreicht wird, während die Fig. 10C und 10D Flußdiagramme zur Erläuterung des
Mittelwertes dieser Abstände zwischen verschiedenen Paaren von Endpunkten sind, die den
maximalen und die dazu näheren enthalten. Eine horizontale Länge wird im Schritt S22 in
ähnlicher Weise berechnet wie die Berechnung der vertikalen Länge in Schritt S21.
Anschließend vergleicht die Gesamtobjektpositionsbestimmungssektion 108 den Abstand
zwischen dem ausgewählten Paar von vertikalen Endpunkten, der im Schritt S20 erhalten
wurde, mit der vertikalen Länge, die im Schritt S21 erhalten wurde. Wenn diese signifi
kant voneinander abweichen, wird das ausgewählte Paar von vertikalen Endpunkten als
ungültig bestimmt und ausgeschlossen (Schritt 23).
Ähnlich vergleicht die Gesamtobjektpositionsbestimmungssektion 108 den Abstand zwi
schen dem ausgewählten Paar der horizontalen Endpunkte, der im Schritt S20 erhalten
wurde, mit der horizontalen Länge, die in Schritt S22 erhalten wurde. Wenn diese signifi
kant voneinander abweichen, wird das ausgewählte Paar von horizontalen Endpunkten als
ungültig bestimmt und ausgeschlossen (Schritt S24).
Danach erfaßt die Gesamtobjektpositionsbestimmungssektion 108 im Schritt S25 eine
Linie, die der oberen oder unteren Seite des Objekts nahe ist und deren Neigung. Genauer
werden die Endpunkte, die im Schritt S23 als wirksam bestimmt wurden, in eine obere
Endpunktgruppe, wie in Fig. 12A dargestellt, und eine untere Endpunktgruppe, wie in Fig.
12B dargestellt, unterteilt. Aus diesen Endpunktgruppen wird eine Näherungslinie, die der
Oberseite oder Unterseite des äußeren Rahmens des zu erkennenden Objekts P entspricht,
erhalten.
Die Näherungslinie kann mittels des allgemein bekannten kleinsten Quadratverfahrens
berechnet werden. Bei angenommen, daß die zu erhaltende, Näherungslinie y = ax + b ist,
dann werden die Koeffizienten a und b so bestimmt, daß sie die Summe der Quadrate der
Abstände zwischen der Linie und dem bereits erhaltenen (d. h. wirksamen) Endpunkten
minimal machen. Der so erhaltene Koeffizient a gibt die Steigung dy der Näherungslinie
an. Eine solche Näherungslinie kann auch betreffend die linke oder rechte Seite des
Objekts P erhalten werden, wie in Fig. 12C und 12D (Schritt S26) gezeigt.
Anschließend berechnet die Gesamtobjektpositionsbestimmungssektion 108 die Koordinaten
der vier Ecken und des Zentrums. Die Koordinaten der vier Ecken werden erhalten, indem
die Schnittpunkte der berechneten Linien, die den äußeren Rahmen des zu erkennenden
Objekts P bilden, wie in Fig. 12E und 12F dargestellt, berechnet werden. Bei beispiels
weise angenommen, daß die Oberseite des zu erkennenden Objekts P y = aUx + bU, ist
und die linke Seite y = aLx + bL ist, wie in Fig. 13 dargestellt, dann sind die Koordinaten
(xLU, yLU) der oberen linken Ecke gegeben durch:
Die Koordinaten (xC, yC) des Zentrums werden aus der vertikalen und horizontalen Länge
und den Neigungen berechnet. Genauer, sei angenommen, daß die vertikale Länge WUB ist
und die horizontale Länge WLR ist, dann sind die Koordinaten des Zentrums gegeben
durch:
xC = xLU + wLR × 0.5 + (wLR × 0,5)/dx
yC = yLU + wUB × 0.5 + (wUB × 0,5)/dy,
wobei dx die Anzahl der Pixel entsprechend dem Denominator der Neigung (1/dx) der
oberen oder unteren Seite des zu erkennenden Objekts P bedeutet und dy die Anzahl von
Pixeln entsprechend dem Denominator der Neigung (1/dy) der rechten oder linken Seite
des zu erkennenden Objekts P bedeutet, wie in dem oberen rechten und oberen linken
Bereich der Fig. 13 dargestellt.
Die so erhaltene Positionsinformation oder Neigung werden in eine Erkennungssektion 109
eingegeben, die wiederum das Erkennungsverfahren auf Basis der Position durchführt, die
von der Ganzobjektpositionsbestimmungssektion 108 bestimmt wurde. Beispielsweise kann
die Erkennung durchgeführt werden, indem nur die Pixel in dem internen des bestimmten
ganzen Bildes digitalisiert werden, d. h. des zu erkennenden Objekts P, und das Digitalisie
rungsergebnis mit Verzeichnisdaten abgestimmt wird, die in dem Referenzbilddatenspei
cher 110 gespeichert sind. Die Erkennung kann auch durchgeführt werden, indem die
durchschnittliche Luminanz der Pixel nur des zu erkennenden Objektes P mit einem
Bezugs- oder Referenzwert verglichen wird, der in dem Referenzbilddatenspeicher 110
gespeichert ist.
Im folgenden wird eine zweite Ausführungsform beschrieben.
Fig. 14 zeigt grob den Aufbau einer Bilderkennungsvorrichtung entsprechend der zweiten
Ausführungsform. Die zweite Ausführungsform unterscheidet sich von der ersten Aus
führungsform nur dahingehend, daß in der zweiten Ausführungsform eine Teilflächenextraktionssektion
201 und eine Teilbereichseinstellparametereingabesektion 202 nach der
Gesamtobjektpositionsbestimmungssektion 108 angeordnet sind. Mit anderen Worten, wird
bei dieser Ausführungsform nur eine Teilfläche des zu erkennenden Objektes P erkannt
anstelle von dessen Gesamtfläche.
Die Teilflächeneinstellparametereingabesektion 202 hat den gleichen Aufbau wie die
Parametereingabesektion 104 gemäß Fig. 2 und die einzugebenden Parameter enthalten die
Größe (vertikale oder horizontale Länge) der Teilfläche, einen Referenzpunkt zum Ein
stellen der Teilfläche und ein Relativverhältnis (das im folgenden beschrieben wird) von
dem Bezugspunkt. Die Skala bzw. der Maßstab der Teilfläche ist der genau gleiche
Maßstab (mm), während die in die Parametereingabesektion 105 einzugebenden Größe
erhalten wird, indem der exakt gleiche Maßstab mit der Bildleseauflösung (Linien/mm)
multipliziert wird.
Die Parameter unter werden unter Bezugnahme auf ein in Fig. 15 dargestelltes Beispiel
beschrieben. Bei angenommen, daß die schraffierte Fläche E die Teilfläche ist. Die
senkrechte und horizontale Linie der Teilfläche E werden durch y und x gegeben und der
Referenzpunkt, der an einem oberen rechten Bereich angeordnet ist, ist durch P1 gegeben.
Bei angenommen, daß die Breite (d. h. horizontale Länge) und Höhe des zu erkennenden
Objektes durch w und h gegeben sind und daß der Abstand in x-Richtung zwischen dem
Referenzpunkt P1 und dem Zentrum der Teilfläche E durch cX gegeben ist und das
Relativverhältnis cR in x-Richtung cX/w beträgt. Bei weiter angenommen, daß der Abstand
in y-Richtung zwischen dem Referenzpunkt P 1 und dem Zentrum der Teilfläche E durch
cy gegeben ist und das Relativverhältnis in y-Richtung yR cy/h beträgt.
Die von der Teilflächeneinstellparametereingabesektion 202 eingegebenen Parameter
werden zusammen mit dem mittels der Parametereingabesektion 104 eingegebenen Parame
tern zu der Teilflächenextraktionsektion 201 geschickt. Die Teilflächenextraktionssektion
201 extrahiert eine Teilfläche, die dem Förderzustand entspricht, auf der Basis von Daten,
die mittels der Gesamtobjektpositionsbestimmungssektion 108 erhalten werden und die vier
Ecken, das Zentrum, die vertikalen und horizontalen Längen und die Neigung des zu
erkennenden Objekts P betreffen. Die Zentrumsposition (xSC, ySC) der Teilfläche E ist
gegeben durch:
xSC = xRU - w × xR + w × xR/dx
ySC = yRU - h × yR + h × yR/dy
Die Teilfläche E wird auf Basis der Zentrumsposition extrahiert bzw. hergeleitet, die durch
die obigen Gleichungen erhalten wird. Da die Gesamtobjektpositionsbestimmungssektion
108 die vier Ecken auf der Basis der vier Seiten des zu erkennenden Objekts P erhält,
kann sie idealerweise vier Ecken erhalten, die nicht von einer beispielsweise aktuell
umgefalteten Ecke beeinflußt sind. Entsprechend ist die Sektion 108 frei von einem Verlust
des Referenzpunkts P1 und kann als Referenzpunkt eine Ecke des zu erkennenden Objekts
P verwenden, die der Teilfläche E am nächsten ist.
Wie vorstehend beschrieben, kann bei den Vorrichtungen entsprechend der ersten und
zweiten Ausführungsformen zum Erkennen eines Bildes auf dem beförderten, zu erkennen
den Objekts P das beförderte Objekt P genau auf der Basis von Information (Größe,
Luminanz usw.) auf einem bereits bekannten zu erkennenden Objekt P oder Information
über erlaubte Werte während der Beförderung (Ausmaß der Verdrehung, Verschiebung
usw.) erkannt werden. Im Ergebnis kann ein Bild auf dem zu erkennenden Objekt P
erkannt werden, ohne daß es vom Förderzustand, einer umgefalteten Ecke, einem Bruch,
einem Fleck usw. beeinflußt wird.
Im folgenden wird eine dritte Ausführungsform beschrieben.
Fig. 16 zeigt grob den Aufbau einer Bilderkennungsvorrichtung entsprechend der dritten
Ausführungsform. Die dritte Ausführungsform unterscheidet sich von ersten Ausführungs
form nur dadurch, daß sie weiter eine Objektauswahlsektion 301, eine Akkumuliersektion
302 erfaßter unnormaler Daten, eine Anzeigesektion 303 erfaßter Unnormalitäten und eine
Unnormalbereichsschätzsektion 304 enthält. Mit anderen Worten kann bei dieser Aus
führungsform ein Bild eines zu erkennenden Objekts P erkannt werden, ohne vom Zustand
der Beförderung beeinflußt zu sein.
Die Objektauswahlsektion 301 bestimmt auf Basis von Paaren von von der Längenerfas
sungssektion 107 erfaßten Endpunkten ob oder ob nicht die Position des zu erkennenden
Objektes P bestimmt werden kann. Genauer beurteilt die Sektion 301 aus der Anzahl von
erfaßten Paaren von Endpunkten und dem Abstand zwischen jedem Paar ob oder ob nicht
die Position des gesamten Objekts P bestimmt werden kann. Um die Position des gesamten
Objekts P zu bestimmen, sind zwei oder mehr Paare von Endpunkten, die dem durch einen
Parameter eingestellten Endpunktabstandsbereich genügen, in vertikaler und horizontaler
Richtung notwendig. Die Sektion 301 beurteilt, ob oder ob nicht diese Bedingung erfüllt
ist.
Wenn zwei oder mehr Paare, die der Bedingung genügen, nicht gefunden werden können,
wird bestimmt, daß das zu erkennende Objekt P nicht erkannt werden kann, und die bis
dahin erfaßte Information über die Endpunkte wird in der Akkumuliersektion 302 erfaßter
unnormaler Daten akkumuliert. Fig. 17 zeigt ein Beispiel akkumulierter Daten. In diesem
Fall wird ein Satz von Daten für eine Verarbeitungszahl gespeichert. Der Datensatz enthält
die Anzahl der erfaßten Endpunkte und ihre Abstände.
Die Verarbeitungszahl zeigt die Zahl einer Verarbeitung oder eines Prozesses an, in dem
keine Erfassung durchgeführt werden konnte. Mit anderen Worten zeigt die Verarbeitungs
zahl an, wo das zu erkennende Objekt P sich in der Reihenfolge der bearbeiteten Objekte
befindet. Um zu bestimmen bzw. zu entscheiden, ob Endpunkte, die nicht erfaßt werden
konnten, in der vertikalen oder horizontalen Richtung angeordnet sind, können zwei Arten
von Speichern mit einer Datenstruktur gemäß Fig. 17 vorbereitet werden, oder es kann
nach der Verarbeitungszahl ein Flag eingefügt werden, das die Richtung anzeigt.
Die akkumulierten Daten sind nicht auf das Vorstehende beschränkt, sondern können
zusätzlich zu den vorstehenden Daten Positions- oder Luminanzinformation der Endpunkte
enthalten.
Die Objektauswahlsektion 301 enthält eine Zählsektion zum Zählen der Anzahl von Fällen,
in denen keine Erfassung durchgeführt werden kann. Diese Zählsektion enthält einen ersten
Zähler zum Zählen der gesamten Anzahl von nicht erfaßbaren Fällen, die während seines
Betriebs aufgetreten sind, und weiter einen zweiten Zähler zum Zählen der Anzahl von
nicht erfaßbaren Fällen, die ununterbrochen aufgetreten sind. Diese Zähler werden in
itialisiert (der Zählerwert wird auf 0 rückgesetzt), wenn die Stromversorgung angeschaltet
wird. Weiter zählt der erste Zähler 1, wenn ein zu erkennendes Objekt P vorhanden ist,
das nicht erfaßt werden kann, während der zweite Zähler auf "0" rückgesetzt wird, wenn
ein zu erkennendes Objekt P vorhanden ist, das erfaßt werden kann, und zählt 1, wenn ein
zu erkennendes Objekt P vorhanden ist, das nicht erfaßt werden kann. Auf die Zähler
ergebnisse kann, wenn erforderlich, über die Unnormalbereichsschätzsektion 304 Bezug
genommen werden.
Wenn ein zu erkennendes Objekt P vorhanden ist, das nicht erfaßt werden kann, zeigt die
Anzeigesektion 303 erfaßter Unnormalität eine Information, die dies anzeigt. Diese Sektion
303 ist durch eine Flüssigkristallanzeige oder eine LED gebildet. Wenn diese Sektion 303
aus einer LED gebildet ist, blinkt sie, wenn ein zu erkennendes Objekt P, das nicht erfaßt
werden kann, gefunden wurde.
Wenn die Sektion 303 eine Flüssigkristallanzeige enthält, zeigt sie Daten gemäß Fig. 18
an. Fig. 18 zeigt ein Beispiel eines Anzeigebildschirms, der Daten anzeigt, die anzeigen,
daß 48 unerfaßbare Fälle kontinuierlich aufgetreten sind. Zu diesem Zeitpunkt beendet das
System den Erkennungsbetrieb. Die Anzeigesektion 303 erfaßter Unnormalitäten zeigt eine
Botschaft, die auf ein Phänomen (Anhaften von Staub an dem optischen System) hindeutet,
das von der Unnormalbereichsschätzstation 304 abgeschätzt bzw. beurteilt wird, und weiter
eine Botschaft, die auf Maßnahmen zum Eliminieren des Phänomens (Reinigen) hindeutet.
Wenn ein "Detail" Knopf, der rechtsseitig angeordnet ist, gedrückt wird, wird des weiteren
die Ursache des durch die Botschaft angezeigten Phänomens angezeigt, d. h. Daten, die
in der Akkumuliersektion 302 erfaßter unnormaler Daten gespeichert sind oder Analyseer
gebnisse der Daten.
Wenn nicht erfaßbare Fälle kontinuierlich aufgetreten sind, schätzt die Unnormalbereichs
schätzsektion 304 die Ursache ab bzw. beurteilt sie. Wenn der zweite Zähler (zum Zählen
der Anzahl nicht erfaßbarer Fälle, die kontinuierlich aufgetreten sind) "2" oder mehr zählt
oder einen Wert höher als ein eingestellter Wert anzeigt, analysiert die Unnormalbereichs
schätzsektion 304 die letzten Daten erfaßter Unnormalitäten, die in der Akkumuliersektion
302 erfaßter unnormaler Daten gespeichert sind. Wenn Daten, wie in Fig. 17 gezeigt,
gespeichert sind, wird eine Analyse durchgeführt, indem die Anzahl vertikaler (oder
horizontaler) Endpunkte und Abstände dazwischen mit vorher registrierten Daten bezüglich
unnormaler Phänomene verglichen werden.
Fig. 19 ist ein Flußdiagramm zur Erläuterung des Analysevorgangs. In der Figur zeigen
die in rechteckigen Kästchen aufgeführten Phänomene abgeschätzte unnormale Phänomene
an. Jedes unnormale Phänomen wird beurteilt bzw. eingeschätzt, indem die in der Akku
muliersektion 302 erfaßter unnormaler Daten zuletzt gespeicherten unnormale Erfassungen
betreffende Daten mit einem entsprechenden zulässigen Wert verglichen werden.
Die Anzahl der Analyseschritte ist nicht auf die in Fig. 19 Gezeigte beschränkt. Weiter
sind die zu verwendenden Daten nicht auf die letzten Daten beschränkt, sondern es kann
die Gesamtmenge an Daten, die kontinuierlich aufgetreten sind, verwendet werden.
Beispielsweise wird die Anzahl der Objekte gezählt, die einer Bedingung für jede der vier
Analysen in den Schritten S80, S82, S85 und S87 in Fig. 19 nicht genügen (d. h. die
Anzahl von Paaren vertikaler Endpunkte, die Abstände dazwischen, die Anzahl von Paaren
horizontaler Endpunkte und die Abstände dazwischen). Dann wird ein Unnormalitäts
phänomen als der vorhandene unnormale Zustand eingeschätzt, das mit dem Vorgang, für
den der gezählte Wert maximal ist, in Beziehung steht.
Der eingeschätzte unnormale Zustand wird auf das System rückgekoppelt, wenn es
automatisch in den Normalzustand versetzt werden kann. Wenn beispielsweise die Förder
geschwindigkeit unnormal ist, werden die Daten zu dem Steuergerät für die Förderge
schwindigkeit gesendet, das die Fördergeschwindigkeit auf der Basis der Daten einstellt.
Wenn dagegen der unnormale Zustand nicht automatisch normalisiert werden kann, stoppt
das System und die Anzeigesektion 303 erfaßter Unnormalitäten zeigt eine diesbezügliche
Botschaft an, wodurch ein Benutzer der Vorrichtung gewarnt wird.
Wie vorstehend beschrieben kann bei der Vorrichtung zum Erkennen eines Bildes auf
einem beförderten zu erkennenden Objekt P entsprechend der dritten Ausführungsform das
Objekt P genau auf der Basis von Information über ein bereits bekanntes Objekt P oder in
Information über zulässige Werte während der Beförderung erfaßt werden. Wenn Fälle, in
denen das zu erkennende Objekt P nicht erkannt werden kann, kontinuierlich vorliegen,
wird ein Benutzer gewarnt und in einem frühen Zustand kann ein unnormaler Bereich des
Systems durch Abschätzung bzw. Beurteilung herausgefunden werden.
Im folgenden wird eine vierte Ausführungsform beschrieben.
Fig. 20 zeigt grob den Aufbau einer Bilderkennungsvorrichtung entsprechend der vierten
Ausführungsform. Die vierte Ausführungsform unterscheidet sich von der ersten Aus
führungsform nur dadurch, daß die vierte Ausführungsform eine Parametereinstellhilfsein
richtung 400 enthält. Mit anderen Worten wird bei dieser Ausführungsform der Förderzu
stand des zu erkennenden Objekts P gemessen und das Meßergebnis wird als ein Parameter
zum Erfassen des zu erkennenden Objekts P verwendet, um dadurch eine genauere
Erfassung zu realisieren.
Die Parametereinstellhilfseinrichtung 400 enthält eine Betriebsartparametereingabesektion
401, eine Betriebsartschaltsektion 402, einen Erfassungsdatenakkumulierspeicher 403, eine
Förderzustandsmeßsektion 404 und eine Parametererzeugungssektion 405.
Jedes Element der Einrichtung 400 wird im folgenden im Detail beschrieben.
Die Betriebsartparametereingabesektion 401 wird verwendet, um ein Signal einzugeben,
das anzeigt, ob das System eine Parametereinstellung oder einen normalen Betrieb durch
führt, und enthält eine Eingabeeinrichtung, wie ein Keyboard, eine Maus, ein Mundstück,
ein Berührfeld, einen Schalter und eine Anzeigeeinrichtung zum Anzeigen des Eingabeer
gebnisses. Wenn die Einstellart als Betriebsart gewählt ist, schaltet die Betriebsartschalts
ektion 402 die Betriebsart auf Einstellbetrieb. Im Einstellbetrieb wird keine Erkennungs
verarbeitung durchgeführt und Daten werden kontinuierlich in dem Erfassungsdaten
akkumulierspeicher 403 akkumuliert.
Der Erfassungsdatenakkumulierspeicher 403 akkumuliert Paare von Endpunkten, die von
der Endpunkterfassungssektion 106 erfaßt werden, gruppiert die Paare vertikal und
horizontal jedesmal wenn sie erfaßt werden. Genauer speichert der Speicher als eine
Dateneigenschaft vier Datenteile, die aus der X-Koordinate und Y-Koordinate eines
Endpunktes, der X-Koordinate und Y-Koordinate eines anderen Endpunktes, der dem einen
Endpunkt entspricht, bestehen. Weiter wird, wie in Fig. 17 dargestellt jedem erkannten
Objekt P eine Seriennummer hinzugefügt, und die Daten werden in Einheiten eines Objekts
P gespeichert.
Wenn die Betriebsart vom Einstellmodus in den Normalmodus umgeschaltet wird, mißt die
Förderzustandsmeßsektion 404 einen Förderzustand, wie eine Verdrehung oder Verschie
bung auf Basis der bis dahin akkumulierten Daten.
Wenn ein Verdrehungszustand gemessen wird, vergleicht die Förderzustandsmeßsektion
404 zuerst die vertikale Länge des zu erkennenden Objekt P mit seiner horizontalen Länge,
die in die Parametereingabesektion 104 eingegeben werden, wodurch bestimmt wird,
welche länger ist. Wenn die vertikale Länge länger ist, wird eine Linie nahe der linken
Seite jedes zu erkennenden Objekts P erhalten. Wenn dagegen die horizontale Länge länger
ist, wird eine Linie nahe der oberen Seite jedes zu erkennenden Objekts P erhalten. Durch
Verwendung von Daten einer längeren Seite des zu erkennenden Objekts P wird eine
verläßlichere Näherungslinie erhalten. Der durch die Näherungslinie erhaltene Koeffizient
a zeigt die Neigung einer spezifizierten Seite an. Die gleiche Messung wie vorstehend
beschrieben wird an allen Objekten P durchgeführt, die in dem Erfassungsdatenakkumilier
speicher 403 akkumuliert sind, wodurch ein maximaler Koeffizient aMAX bestimmt wird.
Unter der Annahme daß der zulässige Wert (d. h. der obere Grenzwert) für die Längener
fassung durch s gegeben ist und die Neigung des Objekts P durch θ gegeben ist, wird die
folgende Gleichung erhalten:
s = tanθ
θ wird aus arc tan aMAX erhalten und dieser Winkel zeigt das maximale Ausmaß der
Verkippung an. Der zulässige Wert kann eingestellt werden, indem aMAX als der obere
Grenzwert eingegeben wird.
Zur Messung des Ausmaßes der Verschiebung werden nur Erfassungsdaten bezüglich der
horizontalen Endpunkte verwendet, die in den in dem Erfassungsdatenakkumulierspeicher
403 akkumulierten Daten enthalten sind. Unter der Annahme, daß die horizontale Länge
des zu erkennenden Objekts P durch w gegeben ist, die mittlere Länge in x-Richtung der
linken Endpunkte von der y-Achse durch LAV gegeben ist, das Zentrum des Gesichtsfeldes
durch c gegeben ist, dann ist das Verschiebungsmaß SL gegeben durch:
SL = (c - w/2) - LAV
Die Verschiebungsmaße aller Objekte P werden berechnet, wodurch ihr maximaler Wert
erhalten wird. Die Eingabe des maximalen Wertes als ein Parameter in die Endpunkt
erfassungssektion 106 ermöglicht, den Endpunktabtastbereich schmaler zu machen und
dadurch eine Verringerung der Anzahl der Abtastvorgänge.
Die Parametererzeugungssektion 405 speichert als Anfangsdaten Parameter, die in einem
Speicher gespeichert sind, der in der Parametersektion 104 enthalten ist. Die Sektion 405
überschreibt einen Verdrehungswinkel und/oder ein Verschiebungsmaß, die in den An
fangsdaten enthalten ist, in die Meßwerte, die von der Vorderzustandsmeßsektion 404
erhalten werden. Die neugeschriebenen Parameter werden in den Speicher in der Parame
tereingabesektion 104 übertragen, wodurch die Parameter aktualisiert werden.
Wie vorstehend beschrieben kann bei der Vorrichtung zum Erkennen eines Bildes auf
einem beförderten zu erkennenden Objekt P entsprechend der vierten Ausführungsform der
Förderzustand jedes Objektes P gemessen werden und die Verwendung des Meßergebnis
ses als ein Parameter zum Erfassen der Position des Objekts P ermöglicht eine genauere
Erfassung des Objekts P.
Wie vorstehend im Detail beschrieben, schafft die Erfindung eine Bilderkennungsvor
richtung, mit der zu erkennende Objekte genau erfaßt und erkannt werden können, selbst
wenn ihre Positionen sich verschieben, während sie befördert werden.
Zusätzliche Vorteile und Modifizierungen sind jedem Fachmann ohne weiteres zugänglich.
Entsprechend können verschiedene Abänderungen durchgeführt werden, ohne vom
allgemeinen Erfindungsgedanken abzuweichen, wie er in den beigefügten Ansprüchen und
ihren Äquivalenten definiert ist.
Claims (16)
1. Bilderkennungsvorrichtung mit
einer Bildeingabeeinrichtung (101) zum Eingeben eines Bildes eines zu erkennenden, beförderten Objektes;
einer Endpunkterfassungseinrichtung (106) zum Erfassen, auf der Basis des von der Bildeingabeeinrichtung eingegebenen Bildes, einer Mehrzahl von Paaren von Endpunkten, die Grenzpunkte zwischen dem zu erkennenden Objekt und einem Hintergrund davon anzeigen, wobei die Paare von Endpunkten auf vertikalen und horizontalen Linien vorhanden sind, die durch das zu erkennende Objekt hindurchgehen;
einer Längenerfassungseinrichtung (107) zum Erfassen vertikaler und horizontaler Längen des zu erkennenden Objektes auf der Basis einer Endpunktinformation, die von der Endpunkterfassungseinrichtung geliefert wird;
einer Vergleichseinrichtung (S23, S24) zum Vergleichen der von der Längen erfassungseinrichtung (107) gelieferten Längeninformation mit Werten, die innerhalb eines von einer idealen Länge x und einer Verdrehung θ abhängigen Bereichs liegen, um eine Endpunktpaarinformation zu bestimmen;
eine Positionsbestimmungseinrichtung (108) zum Bestimmen der Position eines gesamten Bereiches des zu erkennenden Objektes auf der Basis der Endpunkt paarinformation, die von der Vergleichseinrichtung geliefert wird; und
eine Erkennungseinrichtung (109) zum Vergleichen des von der Bildeingabeein richtung eingegebenen Bildes mit einem Referenzbild auf Basis der von der Positions bestimmungseinrichtung bestimmten Position, wodurch das von der Bildeingabeeinrichrung eingegebene Bild erkannt wird.
einer Bildeingabeeinrichtung (101) zum Eingeben eines Bildes eines zu erkennenden, beförderten Objektes;
einer Endpunkterfassungseinrichtung (106) zum Erfassen, auf der Basis des von der Bildeingabeeinrichtung eingegebenen Bildes, einer Mehrzahl von Paaren von Endpunkten, die Grenzpunkte zwischen dem zu erkennenden Objekt und einem Hintergrund davon anzeigen, wobei die Paare von Endpunkten auf vertikalen und horizontalen Linien vorhanden sind, die durch das zu erkennende Objekt hindurchgehen;
einer Längenerfassungseinrichtung (107) zum Erfassen vertikaler und horizontaler Längen des zu erkennenden Objektes auf der Basis einer Endpunktinformation, die von der Endpunkterfassungseinrichtung geliefert wird;
einer Vergleichseinrichtung (S23, S24) zum Vergleichen der von der Längen erfassungseinrichtung (107) gelieferten Längeninformation mit Werten, die innerhalb eines von einer idealen Länge x und einer Verdrehung θ abhängigen Bereichs liegen, um eine Endpunktpaarinformation zu bestimmen;
eine Positionsbestimmungseinrichtung (108) zum Bestimmen der Position eines gesamten Bereiches des zu erkennenden Objektes auf der Basis der Endpunkt paarinformation, die von der Vergleichseinrichtung geliefert wird; und
eine Erkennungseinrichtung (109) zum Vergleichen des von der Bildeingabeein richtung eingegebenen Bildes mit einem Referenzbild auf Basis der von der Positions bestimmungseinrichtung bestimmten Position, wodurch das von der Bildeingabeeinrichrung eingegebene Bild erkannt wird.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß sie zusätzlich eine
Parametereingabeeinrichtung (104) zum Eingeben der Beförderungsbedingungen und von
sich auf das zu erkennende Objekt beziehender Information enthält.
3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Endpunkterfassungseinrichtung
(106) enthält:
eine Luminanzunterschiedserfassungseinrichtung (S5) zum Erfassen eines Lumin anzunterschiedes zwischen einem Zielpixel und einem dem Zielpixel nächst benachbarten Pixel;
eine Einrichtung (S6) zum Bestimmen, ob der von der Luminanzunterschieds erfassungseinrichtung erfaßte Luminanzunterschied größer ist als ein vorbestimmter Luminanzunterschied, der von der Parametereingabeeinrichtung eingegeben ist;
eine Einrichtung (S8) zum Beurteilen, daß die Luminanz des Zielpixels eine Hintergrundluminanz ist, wenn der erfaßte Luminanzunterschied größer als der vorbe stimmte Luminanzunterschied ist; und
eine Einrichtung (S14) zum Bestimmen, daß das dem Zielpixel nächst benachbarte Pixel ein Endpunkt ist, wenn ein Luminanzunterschied zwischen der Hintergrundluminanz und einer Luminanz jedes von Pixeln, die von dem dem Zielpixel nächst benachbarten Pixel bis zu einem n-ten Pixel reichen, größer als die vorbestimmte Luminanz ist, wobei n eine vorbestimmte Zahl ist.
eine Luminanzunterschiedserfassungseinrichtung (S5) zum Erfassen eines Lumin anzunterschiedes zwischen einem Zielpixel und einem dem Zielpixel nächst benachbarten Pixel;
eine Einrichtung (S6) zum Bestimmen, ob der von der Luminanzunterschieds erfassungseinrichtung erfaßte Luminanzunterschied größer ist als ein vorbestimmter Luminanzunterschied, der von der Parametereingabeeinrichtung eingegeben ist;
eine Einrichtung (S8) zum Beurteilen, daß die Luminanz des Zielpixels eine Hintergrundluminanz ist, wenn der erfaßte Luminanzunterschied größer als der vorbe stimmte Luminanzunterschied ist; und
eine Einrichtung (S14) zum Bestimmen, daß das dem Zielpixel nächst benachbarte Pixel ein Endpunkt ist, wenn ein Luminanzunterschied zwischen der Hintergrundluminanz und einer Luminanz jedes von Pixeln, die von dem dem Zielpixel nächst benachbarten Pixel bis zu einem n-ten Pixel reichen, größer als die vorbestimmte Luminanz ist, wobei n eine vorbestimmte Zahl ist.
4. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß eine Längen
erfassungseinrichtung (107) eine Wähleinrichtung (Fig. 10A) zum Wählen einer wirksamen
Endpunktpaareinformation aus der von der Endpunkterfassungseinrichtung (106) erfassten
Endpunktpaareinformation enthält, auf der Basis der Beförderungsbedingungen
und der sich auf das zu erkennende Objekt beziehenden Information, die von der Parame
tereingabeeinrichtung (104) eingegeben ist.
5. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Längenerfas
sungseinrichtung (107) eine Wähleinrichtung (S36) zum Wählen der effektiven Endpunkt
paareinformation aus der von der Endpunkterfassungseinrichtung (106) erfassten End
punktpaareinformation enthält, auf der Basis eines Verdrehzustandes des zu erkennenden
Objektes und einer Ideallänge, die von der Parametereingabeeinrichtung (104) eingegeben
ist.
6. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, daß die Längenerfas
sungseinrichtung (107) weiter eine Einrichtung (Fig. 10B) zum Feststellen enthält, daß ein
Maximalabstand, der in den Abständen der effektiven Endpunkte enthalten ist, die von der
Wahleinrichtung gewählt sind, eine Länge des zu erkennenden Objektes ist.
7. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Längenerfas
sungseinrichtung (107) eine Einrichtung (Fig. 10C, 10D) zum Bestimmen enthält, daß ein
Mittelwert der Abstände, die von einem Maximalabstand zu einem n-ten Abstand reichen,
die in den Abständen der von der Wähleinrichtung gewählten effektiven Endpunkte
enthalten sind, eine Länge des zu erkennenden Objektes ist, wobei n eine vorbestimmte
Zahl ist.
8. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Positions
bestimmungseinrichtung (108) enthält:
eine Einrichtung (S23, S26) zum Erhalten einer Linie, nahe zu jeder Seite des zu erkennenden Objektes, wobei die von der Vergleichseinrichtung gelieferte Endpunktpaarinformation verwendet wird; und
eine Eckbeurteilungseinrichtung (S27) zum Beurteilen als Eckkoordinaten des zu erkennenden Objektes von Koordinaten jedes Schnittes zwischen Näherungslinien, die von der Einrichtung zum Erhalten einer Linie erhalten werden.
eine Einrichtung (S23, S26) zum Erhalten einer Linie, nahe zu jeder Seite des zu erkennenden Objektes, wobei die von der Vergleichseinrichtung gelieferte Endpunktpaarinformation verwendet wird; und
eine Eckbeurteilungseinrichtung (S27) zum Beurteilen als Eckkoordinaten des zu erkennenden Objektes von Koordinaten jedes Schnittes zwischen Näherungslinien, die von der Einrichtung zum Erhalten einer Linie erhalten werden.
9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, daß die Positions
bestimmungseinrichtung (108) weiter eine Extraktionseinrichtung (201) zum Extrahieren
einer Teilfläche des zu erkennenden Objektes auf Basis der von der Eckbeurteilungsein
richtung beurteilten Eckkoordinaten enthält; und
die Erkennungseinrichtung (109) eine Einrichtung zum Vergleichen der von der
Extraktionseinrichtung extrahierten Teilfläche mit einer entsprechenden Fläche in dem
Referenzbild enthält, wodurch das von der Bildeingabeeinrichtung eingegebenen Bild
erkannt wird.
10. Bilderkennungsvorrichtung nach Anspruch 1, ferner enthaltend:
eine Bestimmungseinrichtung (S33) zum Bestimmen ob oder ob nicht die Position des gesamten zu erkennenden Objektes erfaßt werden kann, auf Basis der Anzahl der wirksamen Endpunktpaare, die von der Vergleichseinrichtung geliefert werden; und
eine Akkumuliereinrichtung (302) zum Akkumulieren der das zu erkennende Objekt betreffenden Endpunktpaarinformation, wenn die Bestimmungseinrichtung be stimmt, daß die Position des zu erkennenden Objektes nicht erfaßt werden kann;
eine Anzeigeeinrichtung (303) zum Anzeigen eines Bestimmungsergebnisses der Bestimmungseinrichtung, wenn das Ergebnis anzeigt, das die Position des gesamten, zu erkennenden Objektes nicht erfaßt werden kann; und
eine Schätzeinrichtung (304) zum Schätzen eines unnormalen Bereiches der Bilderkennungsvorrichtung auf Basis der von der Akkumuliereinrichtung akkumulierten Endpunktinformation.
eine Bestimmungseinrichtung (S33) zum Bestimmen ob oder ob nicht die Position des gesamten zu erkennenden Objektes erfaßt werden kann, auf Basis der Anzahl der wirksamen Endpunktpaare, die von der Vergleichseinrichtung geliefert werden; und
eine Akkumuliereinrichtung (302) zum Akkumulieren der das zu erkennende Objekt betreffenden Endpunktpaarinformation, wenn die Bestimmungseinrichtung be stimmt, daß die Position des zu erkennenden Objektes nicht erfaßt werden kann;
eine Anzeigeeinrichtung (303) zum Anzeigen eines Bestimmungsergebnisses der Bestimmungseinrichtung, wenn das Ergebnis anzeigt, das die Position des gesamten, zu erkennenden Objektes nicht erfaßt werden kann; und
eine Schätzeinrichtung (304) zum Schätzen eines unnormalen Bereiches der Bilderkennungsvorrichtung auf Basis der von der Akkumuliereinrichtung akkumulierten Endpunktinformation.
11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, daß die Bestim
mungseinrichtung (S33) eine Einrichtung zum Beurteilen enthält, das die Position des
gesamten zu erkennenden Objektes erfaßt werden kann, wenn es zwei oder mehr wirksame
Paare von Endpunkten in vertikaler und horizontaler Richtung gibt.
12. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, daß die Anzeige
einrichtung (303) eine Einrichtung zum Anzeigen aufweist, ob kontinuierliche Fälle,
in denen das zu erkennende Objekt nicht erfaßt werden kann, vorhanden sind, der Anzahl
der kontinuierlichen Fälle und der Anzahl der gesamten Fälle, in denen das zu erkennende
Objekt nicht erfaßt werden kann.
13. Bilderkennungsvorrichtung nach Anspruch 1, ferner enthaltend
eine Parametereingabeeinrichtung (104) zum Eingeben von Parametern und Beförderungsbedingungen, die das zu erkennende Objekt betreffen;
eine Erfassungsinformationsspeichereinrichtung (403) zum Speichern von End punktpaareinformation, die von der Endpunkterfassungseinrichtung geliefert wird;
eine Beförderungszustandsbeurteilungseinrichtung (404) zum Beurteilen eines Beförderungszustandes des zu erkennenden Objektes auf Basis der in der Erfassungs informationsspeichereinrichtung (403) gespeicherten Information; und
eine Betriebsartschalteinrichtung (402) zum Versorgen der Längenerfassungs einrichtung oder der Erfassungsinformationsspeichereinrichtung mit der Endpunktpaarin formation, die von der Endpunkterfassungseinrichtung ausgegeben wird, auf der Basis eines Betriebsartparameters, der mittels der Betriebsartparametereingabeeinrichtung (401) eingegeben wird.
eine Parameteraktualisierungseinrichtung (405) zum Aktualisieren von Parametern, die mittels der Parametereingabeeinrichtung eingegeben wurden, auf Basis eines Beurteilungs ergebnisses der Beförderungszustandsbeurteilungseinrichtung.
eine Parametereingabeeinrichtung (104) zum Eingeben von Parametern und Beförderungsbedingungen, die das zu erkennende Objekt betreffen;
eine Erfassungsinformationsspeichereinrichtung (403) zum Speichern von End punktpaareinformation, die von der Endpunkterfassungseinrichtung geliefert wird;
eine Beförderungszustandsbeurteilungseinrichtung (404) zum Beurteilen eines Beförderungszustandes des zu erkennenden Objektes auf Basis der in der Erfassungs informationsspeichereinrichtung (403) gespeicherten Information; und
eine Betriebsartschalteinrichtung (402) zum Versorgen der Längenerfassungs einrichtung oder der Erfassungsinformationsspeichereinrichtung mit der Endpunktpaarin formation, die von der Endpunkterfassungseinrichtung ausgegeben wird, auf der Basis eines Betriebsartparameters, der mittels der Betriebsartparametereingabeeinrichtung (401) eingegeben wird.
eine Parameteraktualisierungseinrichtung (405) zum Aktualisieren von Parametern, die mittels der Parametereingabeeinrichtung eingegeben wurden, auf Basis eines Beurteilungs ergebnisses der Beförderungszustandsbeurteilungseinrichtung.
14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß die Förderzu
standsbeurteilungseinrichtung eine Einrichtung (S88) zum Beurteilen des Ausmaßes der
Verdrehung des zu erkennenden Objektes enthält.
15. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß die Förderzu
standsbeurteilungseinrichtung eine Einrichtung (S88) zum Beurteilen des Ausmaßes der
Verschiebung des zu erkennenden Objektes enthält.
16. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß sie weiter
enthält:
eine Betriebsartparametereingabeeinrichtung (401) zum Bezeichnen einer Be triebsart zur Bilderkennung oder einer Betriebsart für einen Parameterwechsel; und
eine Betriebsartschalteinrichtung (402) zum Versorgen der Längenerfassungs einrichtung oder der Erfassungsinformationsspeichereinrichtung mit der Endpunktpaarin formation, die von der Endpunkterfassungseinrichtung ausgegeben wird, auf der Basis eines Betriebsartparameters, der mittels der Betriebsartparametereingabeeinrichtung (401) eingegeben wird.
eine Betriebsartparametereingabeeinrichtung (401) zum Bezeichnen einer Be triebsart zur Bilderkennung oder einer Betriebsart für einen Parameterwechsel; und
eine Betriebsartschalteinrichtung (402) zum Versorgen der Längenerfassungs einrichtung oder der Erfassungsinformationsspeichereinrichtung mit der Endpunktpaarin formation, die von der Endpunkterfassungseinrichtung ausgegeben wird, auf der Basis eines Betriebsartparameters, der mittels der Betriebsartparametereingabeeinrichtung (401) eingegeben wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15920098 | 1998-06-08 | ||
JP11146300A JP2000067247A (ja) | 1998-06-08 | 1999-05-26 | 画像認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19926120A1 DE19926120A1 (de) | 1999-12-09 |
DE19926120C2 true DE19926120C2 (de) | 2003-11-20 |
Family
ID=26477198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19926120A Expired - Fee Related DE19926120C2 (de) | 1998-06-08 | 1999-06-08 | Bilderkennungsvorrichtung |
Country Status (3)
Country | Link |
---|---|
US (1) | US6333997B1 (de) |
JP (1) | JP2000067247A (de) |
DE (1) | DE19926120C2 (de) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3962891B2 (ja) * | 2000-08-09 | 2007-08-22 | 富士ゼロックス株式会社 | 文書画像処理装置、文書画像処理方法、及び記憶媒体 |
DE10050368A1 (de) * | 2000-10-11 | 2002-04-18 | Sick Ag | Vorrichtung und Verfahren zur Erkennung von Codes |
JP3437555B2 (ja) * | 2001-03-06 | 2003-08-18 | キヤノン株式会社 | 特定点検出方法及び装置 |
JP3776741B2 (ja) * | 2001-03-29 | 2006-05-17 | 株式会社東芝 | 地図情報取得方法、地図情報取得システム及びプログラム |
JP2004017318A (ja) * | 2002-06-12 | 2004-01-22 | Seiko Epson Corp | 画像パターン出力精度の評価方法 |
US7418114B2 (en) * | 2003-06-11 | 2008-08-26 | Dainippon Screen Mfg. Co., Ltd. | Print tone measuring method |
US20050058350A1 (en) * | 2003-09-15 | 2005-03-17 | Lockheed Martin Corporation | System and method for object identification |
US7463774B2 (en) * | 2004-01-07 | 2008-12-09 | Microsoft Corporation | Global localization by fast image matching |
US8249391B2 (en) * | 2007-08-24 | 2012-08-21 | Ancestry.com Operations, Inc. | User interface method for skew correction |
CN101365077B (zh) * | 2008-09-28 | 2012-06-20 | 华为终端有限公司 | 图像缩放方法及装置 |
US8370759B2 (en) | 2008-09-29 | 2013-02-05 | Ancestry.com Operations Inc | Visualizing, creating and editing blending modes methods and systems |
JP5258529B2 (ja) * | 2008-12-02 | 2013-08-07 | キヤノン株式会社 | 画像処理装置及びその方法、並びに、コンピュータプログラムおよび記憶媒体 |
JP6209885B2 (ja) * | 2013-07-18 | 2017-10-11 | 富士ゼロックス株式会社 | 画像読取装置及び画像形成装置 |
US8885916B1 (en) | 2014-03-28 | 2014-11-11 | State Farm Mutual Automobile Insurance Company | System and method for automatically measuring the dimensions of and identifying the type of exterior siding |
US10013718B1 (en) | 2014-07-11 | 2018-07-03 | State Farm Mutual Automobile Insurance Company | Method and system for automatically streamlining the vehicle claims process |
US10755357B1 (en) | 2015-07-17 | 2020-08-25 | State Farm Mutual Automobile Insurance Company | Aerial imaging for insurance purposes |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5216724A (en) * | 1989-02-10 | 1993-06-01 | Canon Kabushiki Kaisha | Apparatus for image reading or processing |
EP0342060B1 (de) * | 1988-05-13 | 1994-08-17 | Canon Kabushiki Kaisha | Gerät zur Bildherstellung |
JPH06318246A (ja) * | 1993-05-06 | 1994-11-15 | Oki Electric Ind Co Ltd | 紙葉類認識装置 |
EP0704821A2 (de) * | 1994-09-28 | 1996-04-03 | Omron Corporation | Verfahren und Vorrichtung zur Bildverarbeitung |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03210679A (ja) * | 1990-01-12 | 1991-09-13 | Hiyuutec:Kk | パターンマッチング方法および装置 |
JPH0581408A (ja) * | 1991-09-19 | 1993-04-02 | Hiyuutec:Kk | 欠点画像表示方法 |
US5371810A (en) * | 1991-09-27 | 1994-12-06 | E. I. Du Pont De Nemours And Company | Method of determining the interior points of an object in a background |
US5680471A (en) * | 1993-07-27 | 1997-10-21 | Kabushiki Kaisha Toshiba | Image processing apparatus and method |
DE59504541D1 (de) * | 1994-09-07 | 1999-01-28 | Ferag Ag | Steuer- und Kontrollverfahren zur Anwendung in der Weiterverarbeitung von Druckereierzeugnissen |
JP3380831B2 (ja) * | 1996-03-08 | 2003-02-24 | シャープ株式会社 | 画像形成装置 |
US5892854A (en) * | 1997-01-21 | 1999-04-06 | Xerox Corporation | Automatic image registration using binary moments |
-
1999
- 1999-05-26 JP JP11146300A patent/JP2000067247A/ja active Pending
- 1999-06-08 DE DE19926120A patent/DE19926120C2/de not_active Expired - Fee Related
- 1999-06-08 US US09/327,374 patent/US6333997B1/en not_active Expired - Lifetime
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0342060B1 (de) * | 1988-05-13 | 1994-08-17 | Canon Kabushiki Kaisha | Gerät zur Bildherstellung |
US5216724A (en) * | 1989-02-10 | 1993-06-01 | Canon Kabushiki Kaisha | Apparatus for image reading or processing |
JPH06318246A (ja) * | 1993-05-06 | 1994-11-15 | Oki Electric Ind Co Ltd | 紙葉類認識装置 |
EP0704821A2 (de) * | 1994-09-28 | 1996-04-03 | Omron Corporation | Verfahren und Vorrichtung zur Bildverarbeitung |
Also Published As
Publication number | Publication date |
---|---|
US6333997B1 (en) | 2001-12-25 |
JP2000067247A (ja) | 2000-03-03 |
DE19926120A1 (de) | 1999-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19926120C2 (de) | Bilderkennungsvorrichtung | |
DE102008034304B4 (de) | Bildverarbeitungsgerät | |
EP0527285B1 (de) | Verfahren zum Beurteilen von bedruckten Bogen | |
DE69911725T2 (de) | Gerät zur Ermittlung des Schmutzgrades von bedrucktem Material | |
DE19814075B4 (de) | Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern | |
DE3443816A1 (de) | Anordnung zur ueberpruefung der durch eine glasscheibe hervorgerufenen verzerrung | |
DE19841682B4 (de) | Vorrichtung und Verfahren zur Verbesserung der Scanqualität eines Scanners | |
DE2939396A1 (de) | Lagenabtastvorrichtung | |
WO2013011013A2 (de) | Verfahren und vorrichtung zur ocr-erfassung von wertdokumenten mittels einer matrixkamera | |
DE69929110T2 (de) | Einrichtung und Verfahren zur Erzeugung von Druckdaten des zweidimensionalen Koden und zugehöriges Aufzeichnungsmedia | |
DE112012004847B4 (de) | Verfahren und System zum Detektieren von Linien in einem Bild und Spurdetektionssystem zum Analysieren von Straßenbildern | |
EP1578609B1 (de) | Verfahren und vorrichtung zur echzeitkontrolle von druckbildern | |
DE102005025220B4 (de) | Gerät, Verfahren und Programm zum Beseitigen von Poren | |
DE69813416T2 (de) | Vorrichtungen zur Linienrichtungsbestimmung, Bildschrägeerfassung und Bildschrägekorrektur. | |
DE69728469T2 (de) | Gerät und Verfahren zur Ermittlung der Zeichenlinie mittels vereinfachter Projektionsinformation; Zeichenerkennungsgerät und Verfahren | |
DE3303841C2 (de) | Musterprüfeinrichtung und Verfahren zum Prüfen eines Musters | |
DE69019951T2 (de) | Apparat zur Untersuchung von Drucksachen und entsprechendes Verfahren. | |
DE102004050360A1 (de) | Druckzustands-Kontrollverfahren, Zeichenfolge-Kontrollverfahren und Kontrollvorrichtung, die die Verfahren verwendet | |
EP3680106A1 (de) | Mn-detektion im druckbild | |
DE69732508T2 (de) | Laser-Strichcodeleser für einen Brennstab in einem Siedewasserkernreaktor | |
DE19700318A1 (de) | Verfahren zur Bestimmung der Geometriedaten von Abtastvorlagen | |
DE19644793C2 (de) | Verfahren zur Abschattungskorrektur in einem Bildlesegerät | |
DE10302634B4 (de) | Verfahren und Vorrichtung zur Identifikation und Kompensation einer perspektivischen Verzerrung | |
EP1139285B1 (de) | Verfahren und Vorrichtung zur Prüfung bzw. Untersuchung von Gegenständen | |
EP4205091B1 (de) | Vorrichtung zum erzeugen einer digitalen kennung von einem mindestens ein druckbild aufweisenden exemplar eines druckerzeugnisses, smartphone oder tablet mit dieser vorrichtung und verfahren zur verwendung dieser vorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8304 | Grant after examination procedure | ||
8328 | Change in the person/name/address of the agent |
Representative=s name: KRAMER - BARSKE - SCHMIDTCHEN, 81245 MUENCHEN |
|
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20140101 |