DE19926120C2 - Bilderkennungsvorrichtung - Google Patents

Bilderkennungsvorrichtung

Info

Publication number
DE19926120C2
DE19926120C2 DE19926120A DE19926120A DE19926120C2 DE 19926120 C2 DE19926120 C2 DE 19926120C2 DE 19926120 A DE19926120 A DE 19926120A DE 19926120 A DE19926120 A DE 19926120A DE 19926120 C2 DE19926120 C2 DE 19926120C2
Authority
DE
Germany
Prior art keywords
recognized
end point
image
detected
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19926120A
Other languages
English (en)
Other versions
DE19926120A1 (de
Inventor
Kazuo Hashiya
Osamu Kuratomi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of DE19926120A1 publication Critical patent/DE19926120A1/de
Application granted granted Critical
Publication of DE19926120C2 publication Critical patent/DE19926120C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00326Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/12Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using the sheet-feed movement or the medium-advance or the drum-rotation movement as the slow scanning component, e.g. arrangements for the main-scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/192Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
    • H04N1/193Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)

Description

Hintergrund der Erfindung
Die Erfindung bezieht sich auf eine Bilderkennungsvorrichtung zur Verwendung in einer Druckprüfvorrichtung zum Prüfen von Druckzuständen von Drucksachen, zum Erkennen von Bildern auf den transportierten Drucksachen.
In einer Bilderkennungsvorrichtung zum Erfassen bzw. Aufnehmen von Bildern, als Bilddaten, auf beförderten zu erkennenden Objekten (beispielsweise Drucksachen) und zu ihrem Vergleich mit einem Referenzbild zu ihrer Identifizierung ist es notwendig, das Referenzbild genau mit einem Bild auf jedem zu erkennenden Objekt auszurichten, um das Ausmaß der Übereinstimmung zwischen beiden abzuschätzen. Bei einer Bilderkennungs­ vorrichtung verdreht sich oder verschiebt sich das zu erkennende Objekt jedoch während es befördert wird und verschiedene Objekte, die erkannt werden sollen, nehmen unter­ schiedliche Förderzustände ein.
Im Hinblick auf das Vorstehende ist notwendig, zu erkennende Objekte einzeln genau zu erfassen. Für den Fall, daß bei einer herkömmlichen Druckvorrichtung ein Erkennungs­ bereich eingebaut ist, wurde ein Erfassungsverfahren vorgeschlagen, bei dem das Erfassen und Positionieren unter Bezugnahme auf eine Marke ("+", die "Registermarke" genannt wird, oder eine Linie) durchgeführt wird, die zusammen mit einem zu erkennenden Objekt auf ein Medium gedruckt wird. Wenn das Format eines zu erkennenden Objekts bekannt ist, im Falle eines Dokuments, einer Zeitung oder einer Fahrerlaubnis, wird des weiteren manchmal ein waagrechter Strich in dem zu erkennenden Objekt als ein Bezug zur Positio­ nierung verwendet.
Die Japanische Patentanmeldung KOKAI Veröffentlichung Nr. 6-318246 beschreibt zusätzlich ein Verfahren, das verwendet wird, wenn innerhalb eines zu erkennenden Objektes keine Referenzmarke vorhanden ist. Genauer beschreibt die Druckschrift ein Verfahren zum Korrigieren und Positionieren eines Bildes auf Basis einer Information, die von einem Sensor zum Erfassen des Beförderungszustandes eines zu erkennenden Objektes geliefert wird.
Wie vorstehend beschrieben, wurde ein Verfahren zum Drucken einer Positionierungs­ referenzmarke ebenso wie ein zu erkennendes Objekt, ein Verfahren zur Durchführung einer Positionierung unter Verwendung eines horizontalen Striches innerhalb eines zu erkennenden Objektes oder ein Verfahren, das mit einem Sensor zum Sensieren eines Beförderungszustandes arbeitet, verwendet. Diese Verfahren haben jedoch die nachfolgend beschriebenen Nachteile.
Bei dem Verfahren, bei dem eine Positionierungsreferenzmarke ebenso wie das zu erken­ nende Objekt gedruckt wird, ist es notwendig, vorher ebenso wie ein zu erkennendes Objekt ein Muster als Referenzmarke außerhalb des zu erkennenden Objektes zu drucken. Weiter ist es notwendig, einen Schneidmechanismus vorzusehen, um das Referenzmarken­ muster nach dem Drucken zu entfernen.
Das Verfahren zur Durchführung der Positionierung unter Verwendung eines waagrechten Striches innerhalb eines zu erkennenden Objektes verwendet innerhalb des Objektes ein Muster und ist daher nicht mit dem vorgenannten Problem behaftet. Dieses Verfahren kann jedoch nicht auf ein zu erkennendes Objekt angewendet werden, das keinen waagrechten Referenz- bzw. Bezugsstrich enthält.
Weiterer fordert ein Verfahren, das einen Sensor zum Sensieren eines Beförderungs­ zustandes verwendet, zusätzlich zu einem Sensor zum Aufnehmen eines Bildes einen solchen Sensor zum Sensieren eines Beförderungszustandes, was bedeutet, daß das Verfahren eine Großserienvorrichtung erfordert.
Die EP 0 342 060 offenbart eine Bildverarbeitungsvorrichtung, um genauer zu bestimmen, ob ein eingelesenes Bild einem vorbestimmten Bild entspricht. Mit einer derartigen Vorrichtung soll das Kopieren von Geldscheinen verhindert werden. Zur Bestimmung ob ein zu kopierendes Original eine Banknote ist, detektiert eine Endpunktdetektionsschaltung einen Endpunkt eines Bildes des Originals. Ferner detektiert eine Winkeldetektionsschaltung einen Rotationswinkel auf der Basis des Ergebnisses der Detektion der Endpunktdetektionsschaltung.
Eine derartige Vorrichtung ist jedoch zum Erfassen und Erkennen von beförderten Objekten ungeeignet, da ein mehrmaliges Scannen notwendig ist.
Die EP 0 704 821 betrifft ein Bildverarbeitungsverfahren bei dem Objekte abgebildet werden, die auf einem Förderband kontinuierlich bereitgestellt werden. Dabei erhält ein Bildverarbeitungsgerät über eine Kamera ein Bild eines Objekts und detektiert eine Fehlerfassung des Objektbildes in Bezug auf ein zuvor aufgenommenes Modellbild.
Die US 5,216,724 offenbart eine Vorrichtung zum Lesen eines Bildes, speziell zur genauen Identifizierung von Geldscheinen, um ein Kopieren dieser zu verhindern. Hierzu wird eine Positionsinformation eines Originals bestimmt, aus einem bestimmten Teil des Originals ein Datenmuster extrahiert und mit einem vorbestimmten Muster verglichen. Jedoch können auch bei dieser Vorrichtung nur Objekte erfaßt und erkannt werden, die nicht befördert werden.
Aufgabe der Erfindung ist die Bereitstellung einer Bilderkennungsvorrichtung mit der beförderte Objekte genau erfaßt und erkannt werden können, selbst wenn aufeinanderfolgende Objekte in ihrer Position verschieden sind.
Ein Liniensensor liest ein zu erkennendes, befördertes Objekt und speichert in einem Bildspeicher Bilddaten, die das Objekt anzeigen. Eine Parametereingabesektion gibt, als Parameter, den Luminanzunterschied zwischen dem Objekt und seinem Hintergrund, die Beförderungsbedingungen, usw., ein. Eine Endpunkterfassungssektion erfaßt die Grenze zwischen dem Bild auf dem Objekt, das in dem Bildspeicher gespeichert ist, und dem Hintergrund, auf der Basis von Paaren von Endpunkten, die auf vertikalen und horizonta­ len Linien angeordnet sind, die durch das zu erkennende Objekt hindurchgehen. Dabei verwendet die Endpunkterfassungssektion die Parameter, um eine Mehrzahl von Paaren von Endpunkten zu erfassen, ohne durch externes Rauschen oder einen Fleck auf dem Objekt beeinflußt zu werden.
Eine Längenerfassungssektion erfaßt vertikale und horizontale Längen des zu erkennenden Objekts, und eine Positionsbestimmungssektion bestimmt die vier Ecken und das Zentrum des gesamten zu erkennenden Objekts unter Verwendung der erfaßten Längen. Eine Erkennungssektion vergleicht das von der Bildeingabesektion eingegebene Bild mit Refe­ renzbilddaten, die in einem Referenzbilddatenspeicher gespeichert sind, wodurch ein Bild des Objekts erkannt wird.
Die Positionsbestimmungssektion enthält eine Extraktionssektion zum Extrahieren einer Teilfläche des zu erkennenden Objektes auf der Basis der Eckkoordinaten, die von einem Eckbeurteilungssektion beurteilt werden. Die Erkennungssektion enthält eine Sektion bzw. einen Sektion zum Vergleichen der von der Extraktionssektion extrahierten Teilfläche mit einer entsprechenden Fläche in dem Referenzbild, wodurch das von der Bildeingabesektion eingegebene Bild erkannt wird.
Weiter enthält die Erkennungssektion eine Bestimmungssektion zum Vergleichen der Längen, die von der Längenbestimmungssektion geliefert werden, mit einem Abstand zwischen jedem Paar von Endpunkten, die von der Endpunkterfassungssektion geliefert werden, zum Extrahieren ihrer effektiven Endpunktpaareinformation und zum Bestimmen, auf der Basis der Anzahl der extrahierten Paare von Endpunkten, ob oder ob nicht die Position des gesamten zu erkennenden Objekts erfaßt werden kann; eine Akkumulierse­ ktion zum Akkumulieren von Endpunktpaarinformation, die das zu erkennende Objekt betrifft, wenn die Bestimmungssektion bestimmt, daß die Position des zu erkennenden Objekts nicht erkannt werden kann; einen Anzeigesektion zum Anzeigen eines Bestim­ mungsergebnisses der Bestimmungssektion, wenn das Ergebnis anzeigt, daß die Position des gesamten zu erkennenden Objektes nicht erfaßt werden kann; und einen Schätzbereich zum Schätzen bzw. Bewerten eines unnormalen Bereiches der Bilderkennungsvorrichtung auf Basis der Endpunktinformation, die von der Akkumuliersektion akkumuliert ist.
Wenn bei der erfindungsgemäßen Vorrichtung ständig Fälle, in denen das zu erkennende Objekt nicht erfaßt werden können, aufgetreten sind, warnt die Vorrichtung den Benutzer und schätzt einen unnormalen Bereich von ihr ab. Auf diese Weise kann ein unnormaler Bereich, wenn vorhanden, in einem frühen Zustand erfaßt bzw. festgestellt werden.
Zusätzlich wird der Beförderungszustand jedes zu erkennenden Objekts beurteilt, und die Parameter werden auf Basis des Beurteilungsergebnisses verändert. Entsprechend kann das zu erkennende Objekt genauer erfaßt werden.
Zusätzliche Ziele und Vorteile der Erfindung werden in der folgenden Beschreibung erläutert und aus der Beschreibung offensichtlich oder werden bei Umsetzung der Erfin­ dung in die Praxis gelernt. Die Ziele und Vorteile der Erfindung werden realisiert und mittels der Instrumentierungen und Kombination erhalten, auf die nachfolgend genauer hingewiesen wird.
Kurzbeschreibung der verschiedenen Ansichten der Zeichnung
Die nachfolgenden Zeichnungen, die einen Teil der Beschreibung bilden, illustrieren derzeit bevorzugte Ausführungsformen der Erfindung und zusammen mit der allgemeinen, vorstehend gegebenen Beschreibung und der nachfolgend detaillierten Beschreibung der bevorzugten Ausführungsformen dienen sie dazu, die Prinzipien der Erfindung zu erläu­ tern.
Es zeigen:
Fig. 1 ein schematisches Blockschaltbild, das den Aufbau einer Bilderkennungsvor­ richtung entsprechend einer ersten Ausführungsform der Erfindung darstellt;
Fig. 2 ein Blockschaltbild des Aufbaus einer Parametereingabesektion;
Fig. 3 die Beziehung zwischen einem in einem Liniensensor enthaltenen Leseelement und einem Bildspeicher;
Fig. 4 den Bereich des Lesefeldes eines Liniensensors,
Fig. 5 ein Beispiels eines zu erkennenden Objektes;
Fig. 6 eine Ansicht zur Erläuterung der Erfassung eines Endpunktes;
Fig. 7 ein Flußdiagramm zur Erläuterung eines Verfahrens zum Erfassen des End­ punktes;
Fig. 8A und 8B Ansichten zur Erläuterung eines Beispieles einer Art einer fehlerhaften Erfassung des Endpunktes;
Fig. 9 ein Flußdiagramm zur Erläuterung der Vorgänge einer Längenerfassungssek­ tion und einer Sektion zur Bestimmung der Position eines ganzen Objektes;
Fig. 10A bis 10D Flußdiagramme zur Erläuterung im Detail des Betriebs der Längenerfas­ sungssektion und der Sektion zur Bestimmung der Position des ganzen Objek­ tes;
Fig. 11 eine Ansicht von Paaren von Endpunkten, die in vertikaler Richtung erfaßt werden;
Fig. 12A bis 12F Ansichten zur Erläuterung des Betriebs der Sektion zur Bestimmung der Position des ganzen Objekts;
Fig. 13 eine Ansicht zur Erläuterung eines Beispiels, in dem die Position des gesamten Bildes eines zu erkennenden Objektes von einem Speicher bestimmt wird;
Fig. 14 ein schematisches Blockschaltbild zur Erläuterung des Aufbaus einer Bilderken­ nungsvorrichtung entsprechend einem zweiten Ausführungsbeispiel der Erfin­ dung;
Fig. 15 eine Ansicht zur Erläuterung einer Teilfläche innerhalb eines Bildes eines zu erkennenden Objekts;
Fig. 16 ein schematisches Blockschaltbild zur Erläuterung des Aufbaus einer Bilderken­ nungsvorrichtung entsprechend einer dritten Ausführungsform der Erfindung;
Fig. 17 eine Ansicht zur Erläuterung eines Beispiels der Inhalte eines Speichers zum Akkumulieren unnormaler Erfassungsdaten;
Fig. 18 eine Ansicht eines Beispiels des anzeigenden Bildschirms einer Anzeigesektion für unnormale Erfassung;
Fig. 19 ein Flußdiagramm zur Erläuterung eines Verfahrens, wie es in einer Schätzsektion eines unnormalen Bereiches abläuft, und
Fig. 20 ein schematisches Blockschaltbild zur Erläuterung des Aufbaus einer Bilderken­ nungsvorrichtung entsprechend einer vierten Ausführungsform der Erfindung.
Detaillierte Beschreibung der Erfindung
Die Ausführungsformen der Erfindung werden im folgenden unter Bezugnahme auf die Zeichnungen erläutert.
Im folgenden wird eine erste Ausführungsform beschrieben.
Fig. 1 ist ein Blockschaltbild, das den Aufbau einer Bilderkennungsvorrichtung entspre­ chend einer ersten Ausführungsform der Erfindung zeigt. Bei angenommen, daß ein zu erkennendes Objekt (das lediglich als "Objekt" bezeichnet wird) P, wie eine Drucksache, in einer durch den Pfeil in Fig. 1 bezeichneten Richtung befördert wird. Ein auf das beförderte Objekt P gedrucktes oder sonstwie aufgebrachtes Bild, das erkannt werden soll, wird von einer Bildeingabesektion 101 gelesen und eingegeben. Die Bildeingabesektion 101 enthält eine Lichtquelle 102 zum Abstrahlen von Licht auf das beförderte Objekt P und einen Liniensensor 103, der als photoelektrischer Wandler zum Empfang des von dem zu erkennenden Objekt P reflektierten oder durch es hindurchgehenden Lichts dient und das Licht in ein elektrisches Signal umwandelt. Die Lichtquelle und der Liniensensor 103 sind derart angeordnet, daß ihre Längen senkrecht zur Beförderungsrichtung des zu erkennenden Objekts P sind.
Eine Parametereingabesektion 104 wird verwendet, um Information auf bzw. über das zu erkennende Objekt P oder den erlaubten Beförderungsbereich einzugeben und enthält eine Eingabesektion 111, wie ein Tastenfeld, eine Zehnertastatur, eine Maus, ein Mundstück, ein Berührfeld usw., eine Anzeigesektion 112, wie ein LED zum Anzeigen der eingegebe­ nen Daten, und einen Speicher 113, der Parameter speichert. Wenn vorher eine elektronische Datei, die Parameter speichert, vorbereitet wird, können die Parameter in den Speicher 113 geladen werden.
Das Ausgangssignal des Liniensensors 103 wird in der Bildeingabesektion zunächst digitalisiert und dann in einem Bildspeicher 105 gespeichert. Die in dem Bildspeicher 105 gespeicherten Bilddaten werden zu einer Endpunkterfassungssektion 106 und einer Erken­ nungssektion 109 übertragen.
Die Endpunkterfassungssektion 106 erfaßt aus den von dem Bildspeicher 105 zur Ver­ fügung gestellten Bilddaten Endpunkte, die Grenzpunkte zwischen dem zu erkennenden Objekt P und seinem Hintergrund sind. Eine Längenerfassungssektion 107 erfaßt die vertikale Länge und die seitliche oder horizontale Länge des zu erkennenden Objekts P auf der Basis der von der Endpunkterfassungssektion 106 erfaßten Endpunkte und vergleicht die erfaßten Längen mit allen Abständen zwischen den Endpunkten, wodurch bestimmt wird, ob oder ob nicht das erfaßte Paar von Endpunkten wirksam ist.
Eine Gesamtobjektpositionsbestimmungssektion 108 bestimmt die Position des gesamten Objekts P auf Basis der von der Längenerfassungssektion 107 erfaßten Längen. Die Erkennungssektion 109 erkennt ein Bild auf dem zu erkennenden Objekt P auf Basis der von der Ganzobjektpositionsbestimmungssektion 108 bestimmten Position und bezüglich der Referenzbilddaten (Verzeichnisdaten), die in einem Referenzbilddatenspeicher 110 gespeichert sind.
Jeder Prozeß wird im folgenden im Detail beschrieben.
Fig. 3 zeigt die Beziehung zwischen jedem der in dem Liniensensor 103 enthaltenen Leseelemente und Bilddaten, die in den Bildspeicher 105 gespeichert sind. Gemäß Fig. 3 zeigt ein Bild auf den zu erkennenden, beförderten Objekt P, daß das Objekt P verdreht ist bzw. schief liegt. Dieser Verdrehungszustand wird durch die Drehung des zu erkennen­ den Objekts P verursacht, die auftritt, wenn sein Bild eingegeben wird, und wird als ein Faktor betrachtet, der ausgeschlossen werden sollte, wenn das Objekt P erkannt wird.
Der Liniensensor 103 enthält eine Anzahl N von Leseelementen. Diese Anzahl wird auf Basis der Breite des zu erkennenden Objekts P, einer erwünschten Auflösung, einem geschätzten Ausmaß an Verdrehung bzw. Verkippung und einer geschätzten vertikalen Verschiebung senkrecht zur Förderrichtung (nachfolgend als "Verschiebung" bezeichnet) bestimmt.
Wenn der Bereich der Verschiebung durch die Eigenschaften des Fördermechanismus begrenzt werden kann, ist die maximale Anzahl A der Leseelemente durch die folgende Gleichung (1) gegeben, wie aus Fig. 4 ersichtlich:
Anzahl A der Leseelemente =
wobei x (mm) die Länge auf einer Seite des zu erkennenden Objekts P bezeichnet, die senkrecht zur Förderrichtung ist,
y (mm) eine andere Seite senkrecht zu der Seite bezeichnet,
d (die Anzahl der Linien je mm) die Auflösung des Lesens,
±SL (mm) den Bereich der Verschiebung und "2" in der Klammer die Anzahl von Pixeln im Rand (dies bedeutet, daß selbst wenn das Ausmaß der Verschiebung einen maximalen Wert in dem zulässigen Bereich annimmt, der Hintergrund mittels wenigstens zwei Pixeln gelesen werden kann).
Die wirksame Lesebreite, die durch die Gleichung (1) gegeben ist, ermöglicht das Erfassen eines Bildes des gesamten zu erkennenden Objekts P unabhängig vom Auftreten der "Verdrehung" oder "Verschiebung". Wenn der Bereich der Verdrehung durch den Förder­ mechanismus begrenzt werden kann, ist die minimale Anzahl B von Leseelementen durch folgende Gleichung (2) gegeben:
Anzahl B der Leseelemente =
wobei bedeutet:
θ das Ausmaß der Verdrehung und
x (mm) die Länge der einen Seite des Objekts P, die senkrecht zur Förderrichtung ist. Die Anzahl B von Leseelementen ist kleiner als die Anzahl A von Leseelementen. Dies bedeu­ tet, daß ein Bild des gesamten Objekts P unter Verwendung einer kleinen Anzahl von Leseelementen eingegeben werden kann, wenn das Ausmaß der Verdrehung begrenzt werden kann.
Die von der Parametereingabe Sektion 104 eingegebenen Parameter sind genauer die vertikale Länge und die seitliche oder horizontale Länge des zu erkennenden Objekts P, der Luminanzunterschied zwischen dem Hintergrund und dem zu erkennenden Objekt P und die Bildleseauflösung. Die vertikale und horizontale Länge des zu erkennenden Objekts P werden in genau dem gleichen Maßstab (mm) ausgedrückt, während die in dem Bildspeicher 105 einzugebende Größe durch Multiplikation des genau gleichen Maßstabs mit der Bildleseauflösung (Linien/mm) erhalten wird.
Bezugnehmend auf die Fig. 5 werden spezielle Beispiele der Parameter beschrieben. In Fig. 5 stellt Y die vertikale Länge des zu erkennenden Objekts P und X die horizontale Länge dar. Unter der Annahme, daß auf einem äußeren Umfangsbereich des zu erkennen­ den Objekts P kein Muster vorhanden ist und daß AG die durchschnittliche Luminanz eines gestrichelten Umfangsbereiches 502 des Objekts P darstellt und BG die durchschnittliche Luminanz des Hintergrundes 502 des Objekts P darstellt, beträgt der Luminanzunterschied zwischen im Hintergrund 502 und dem zu erkennenden Objekt P:
sub = |AG - BG|.
Wenn der Luminanzunterschied klein ist, kann das zu erkennende Objekt in einfacher Weise durch Abdunkeln des Hintergrundes erkannt werden, wenn ein Umfangsbereich 501 des Objekts P hell ist, und Aufhellen des Hintergrundes, wenn der Umfangsbereich 501 dunkel ist.
Weiter kann das Ausmaß der Verdrehung oder Verschiebung ebenfalls als ein Parameter eingegeben werden. In diesem Fall kann die Erfassungseigenschaft weiter verbessert werden.
Die Endpunkterfassungssektion 106 erfaßt spezifisch jedes Paar von Grenzpunkten zwi­ schen dem zu erkennenden Objekt P und im Hintergrund 502 aus wenigstens einer zweiten Spalte und einer zweiten Zeile einer Pixelmatrix in dem Bildspeicher 105. Die Unter­ scheidung des zu erkennenden Objekts P von dem Hintergrund 502 wird auf der Basis des Luminanzpegels jedes Pixels in dem Bildspeicher 105 durchgeführt. Der Luminanzpegel jedes Pixels nimmt einen Wert an, der durch Digitalisieren des Ausgangssignals des Liniensensors 103 erhalten wird. In der nachfolgenden Beschreibung kann die Luminanz einen von 256 Pegeln haben, da jedes Pixel durch 8 Bit digitalisiert wird. Entsprechend haben weiß und schwarz die Pegel "255" und "0".
Bezugnehmend auf die Fig. 6 und 7 wird die Erfassung von Endpunkten in der horizonta­ len Richtung beschrieben.
Fig. 6 zeigt einen Fall, bei dem die Endpunkte einer Reihe j erfaßt werden. Ein Quadrat entspricht einem Pixel und in diesem Fall ist der Hintergrund dunkel; ein Umfangsbereich des zu erkennenden Objekts P ist hell und ein zentraler Bereich des Objekts P hat unter­ schiedliche Dichte. (i, j) und (i + r, j) zeigen erfaßte Endpunkte.
Fig. 7 ist ein Flußdiagramm zur Erläuterung der Art der Erfassung der Endpunkte. Die Art der Erfassung wird unter Bezugnahme auf das Flußdiagramm erläutert. Das Flußdia­ gramm bezieht sich auf ein Verfahren zur Erfassung eines linksseitigen Endpunktes. Sei zunächst angenommen, daß die Luminanz eines Zielbildes durch img (x, y) gegeben ist, die abgetastete Zeile durch j, die horizontale Länge des zu erkennenden Objektes P durch W, die vertikale Länge des Objekts P durch H, der Luminanzunterschied zwischen dem Objekt P und seinem Hintergrund durch "sub" (Parameter), und die Länge eines Bereiches um das Objekt P, in dem kein Muster vorhanden ist, durch K (Schritt S1).
Der Luminanzunterschied "buf" zwischen einem Pixel (0, j) und einem rechts be­ nachbarten Pixel wird berechnet. Dann wird der Luminanzunterschied "buf" zwischen dem Pixel (0, j) und einem Pixel rechts neben dem benachbarten Pixel berechnet. Diese Berechnung dauert an, bis ein erstes Pixel erreicht wird, bei dem der Unterschied "buf" größer als der Luminanzunterschied "sub" zwischen dem zu erkennenden Objekt P und dem Hintergrund ist, wobei dieser Luminanzunterschied "sub" als ein Parameter eingege­ ben wird (Schritt S6). Wenn der Abstand zwischen dem Zielpixel und dem Pixel (0, j) die Hälfte der Diagonallinie des zu erkennenden Objekts P überschreitet (wenn die Antwort auf die Frage im Schritt S3 "nein" ist) bevor das erste Pixel erreicht wird, wird die Abtastung beendet, und es wird festgestellt, daß kein Endpunkt, der wirksam ist, um die Position des zu erkennenden Objekts P zu bestimmen, gefunden werden konnte.
Der Abtaststart wird bei der vorliegenden Ausführungsform auf "0, j" gesetzt; er kann jedoch begrenzt werden, wenn der Bereich durch Verschiebung begrenzt wird. Genauer sei angenommen, daß die tatsächliche Länge einer Seite eines Objekts senkrecht zur Förder­ richtung x (mm) beträgt und der Bereich der Verschiebung ±SL (mm) beträgt, dann genügt es, wenn die Abtastung von einem Punkt aus beginnt, der von dem Zentrum des Gesichtsfeldes um (x/2) + SL + 1 getrennt ist.
Wie in Fig. 8A dargestellt, kann das Pixel, das als Grenzpunkt zwischen dem zu erkennen­ den Objekt P und dem Hintergrund erfaßt wurde, ein Pixel sein, das aufgrund des Ein­ flusses von Rauschen ein Pixel ist, das außerhalb des aktuellen Pixels angeordnet ist. Wenn das zu erkennende Objekt P ein Ende aufweist, das beispielsweise aufgrund eines Fleckens verformt ist, wie in Fig. 8B dargestellt, kann das Pixel innerhalb des Endes des Objekts P liegen.
Andererseits wird angenommen, daß ein Umfangsbereich des zu erkennenden Objekts P (der schraffierte Umfangsbereich 501 in Fig. 5) kein Muster aufweist. Mit anderen Worten besteht der Umfang des zu erkennenden Objekts P aus Pixeln mit ähnlichen Luminanzwer­ ten. Diese Eigenschaft wird verwendet, um Schwankungsfaktoren, wie Rauschen, einen Fleck usw. auszuschließen bzw. zu unterdrücken.
Genauer wird in den Schritten S8-S13 der Erfindung der Luminanzunterschied "buf" zwischen der Luminanz des Zielpixels und der Luminanz "back" eines Pixels, das un­ mittelbar bevor einem als Grenzpunkt zwischen dem zu erkennenden Objekt P und dem Hintergrund (d. h. ein Pixel, das in dem Hintergrund enthalten und dem zu erkennenden Objekt P am nächsten ist) bestimmten Pixel erfaßt wurde, für jedes einer Anzahl K von Pixeln berechnet. Wenn die berechneten Luminanzunterschiede alle größer sind als der Parameter "sub" (der Luminanzunterschied zwischen dem zu erkennenden Objekt P und dem Hintergrund) wird die Positionsinformation (i + 1, j) des ersten erfaßten Pixels als der Endpunkt extrahiert.
Wenn ein rechtsseitiger Endpunkt erfaßt wird, wird das Abtasten auf linksseitiges Abtasten verändert. Wenn ein vertikaler Endpunkt erfaßt wird, kann er durch Ausführen einer Aufwärtsabtastung und Abwärtsabtastung einer bestimmten Spalte erfaßt werden.
Die Endpunktbestimmung wird ausgeführt, indem wenigstens zwei Paare von horizontalen oder vertikalen Punkten erfaßt werden. Vorzugsweise sollten so viele Paare wie die Zeit zuläßt erfaßt werden. Wenn es notwendig ist, die Anzahl der zu erfassenden Paare zu begrenzen, werden waagrecht abgetastete Zeilen oder senkrecht abgetastete Spalten über einen weiten Bereich des zu erkennenden Objekts P ohne Bereiche des Objekts P nahe seinen vier Ecken ausgewählt. Als Ergebnis kann eine Endpunkterfassung über einen aufgrund einer Verdrehung schmaleren Bereich als eine wirksame Breite oder eine End­ punkterfassung, bei der eine aufgrund eines Fleckens nicht mögliche Erfassung unterdrückt wird, verwirklicht werden.
Bezugnehmend auf die Fig. 9-13 wird die Längenbestimmungssektion 107 und die Ge­ samtobjektpositionsbestimmungssektion 108 beschrieben.
Fig. 9 ist ein Flußdiagramm zur groben Erläuterung der Längenerfassungssektion 107 und der Gesamtobjektpositionsbestimmungssektion 108. Zunächst wählt die Längenerfassungs­ sektion 107 aus den Paaren von Endpunkten, die von der Endpunkterfassungssektion 106 erfaßt wurden, die wirksam sind, um die Position des gesamten Objekts P zu bestimmen (Schritt S20).
Fig. 10A ist ein Flußdiagramm zur Erläuterung des Schrittes S20 im Detail. Die Längen­ erfassungssektion 107 berechnet den Abstand zwischen dem von der Endpunkterfassungs­ sektion 106 erfaßten Endpunkten, wodurch bestimmt wird, ob oder ob nicht der Abstand den Bedingungen genügt. Genauer, wenn eine ideale Länge und ein Verdrehungsbereich in der Parametereingabesektion 104 eingegeben sind, berechnet die Längenbestimmungs­ sektion 107 den Abstand D zwischen den Endpunkten (Schritt S35), setzt die ideale Länge auf x und den Verdrehungsbereich auf θ (S30). Danach wird im Schritt S36 bestimmt, ob oder ob nicht der berechnete Abstand D innerhalb eines Bereiches von x zu x/cosθ liegt. Das Paar von Endpunkten, die dieser Bedingung genügt, wird als effektiv bestimmt und für das Paar wird ein effektiv Flag gesetzt (Schritt S38). Wenn der Verdrehungsbereich nicht begrenzt ist, wird das Paar von Endpunkten, deren Abstand kleiner als die Diagonal­ linie des zu erkennenden Objekts P ist, als effektiv bestimmt. Der Längenerfassungsbereich 107 führt eine solche Bestimmung für jedes vertikale oder horizontale Paar von Endpunk­ ten durch, wodurch die effektiven vertikalen und horizontalen Paare von Endpunkten bestimmt werden.
Anschließend berechnet die Längeerfassungssektion 107 eine vertikale Länge (Schritt S21). Fig. 11 ist eine Ansicht zur Erläuterung der Berechnung der vertikalen Länge. In Fig. 11 bezeichnen schwarze Punkte extrahierte Endpunkte und diejenigen der Endpunkte, die jeweils durch eine gestrichelte Linie verbunden sind, sind ein entsprechendes Paar der Endpunkte. Die senkrechte Länge kann auf den Mittelwert der Abstände zwischen den Paaren von Endpunkten gesetzt werden. Es gibt jedoch ein Paar von Endpunkten, nämlich das rechteste Paar in Fig. 11, deren Abstand aufgrund des Einflusses der Verdrehung kleiner ist als die tatsächliche Länge. Auch wenn die Endpunktpositionen irrtümlicherweise aufgrund eines Flecks bestimmt wurden, hat der Abstand eines Paares von Endpunkten einen kleineren Wert.
Um diese Einflußfaktoren auszuschalten, wird die vertikale Länge auf das Maximum der Entfernungen zwischen den Endpunkten gesetzt oder auf den Mittelwert dieser Abstände zwischen verschiedenen Paaren von Endpunkten, die den maximalen und die dazu näheren einschließen. Fig. 10B ist ein Flußdiagramm zur Erläuterung, wie der maximale Endpunkt­ abstand erreicht wird, während die Fig. 10C und 10D Flußdiagramme zur Erläuterung des Mittelwertes dieser Abstände zwischen verschiedenen Paaren von Endpunkten sind, die den maximalen und die dazu näheren enthalten. Eine horizontale Länge wird im Schritt S22 in ähnlicher Weise berechnet wie die Berechnung der vertikalen Länge in Schritt S21.
Anschließend vergleicht die Gesamtobjektpositionsbestimmungssektion 108 den Abstand zwischen dem ausgewählten Paar von vertikalen Endpunkten, der im Schritt S20 erhalten wurde, mit der vertikalen Länge, die im Schritt S21 erhalten wurde. Wenn diese signifi­ kant voneinander abweichen, wird das ausgewählte Paar von vertikalen Endpunkten als ungültig bestimmt und ausgeschlossen (Schritt 23).
Ähnlich vergleicht die Gesamtobjektpositionsbestimmungssektion 108 den Abstand zwi­ schen dem ausgewählten Paar der horizontalen Endpunkte, der im Schritt S20 erhalten wurde, mit der horizontalen Länge, die in Schritt S22 erhalten wurde. Wenn diese signifi­ kant voneinander abweichen, wird das ausgewählte Paar von horizontalen Endpunkten als ungültig bestimmt und ausgeschlossen (Schritt S24).
Danach erfaßt die Gesamtobjektpositionsbestimmungssektion 108 im Schritt S25 eine Linie, die der oberen oder unteren Seite des Objekts nahe ist und deren Neigung. Genauer werden die Endpunkte, die im Schritt S23 als wirksam bestimmt wurden, in eine obere Endpunktgruppe, wie in Fig. 12A dargestellt, und eine untere Endpunktgruppe, wie in Fig. 12B dargestellt, unterteilt. Aus diesen Endpunktgruppen wird eine Näherungslinie, die der Oberseite oder Unterseite des äußeren Rahmens des zu erkennenden Objekts P entspricht, erhalten.
Die Näherungslinie kann mittels des allgemein bekannten kleinsten Quadratverfahrens berechnet werden. Bei angenommen, daß die zu erhaltende, Näherungslinie y = ax + b ist, dann werden die Koeffizienten a und b so bestimmt, daß sie die Summe der Quadrate der Abstände zwischen der Linie und dem bereits erhaltenen (d. h. wirksamen) Endpunkten minimal machen. Der so erhaltene Koeffizient a gibt die Steigung dy der Näherungslinie an. Eine solche Näherungslinie kann auch betreffend die linke oder rechte Seite des Objekts P erhalten werden, wie in Fig. 12C und 12D (Schritt S26) gezeigt.
Anschließend berechnet die Gesamtobjektpositionsbestimmungssektion 108 die Koordinaten der vier Ecken und des Zentrums. Die Koordinaten der vier Ecken werden erhalten, indem die Schnittpunkte der berechneten Linien, die den äußeren Rahmen des zu erkennenden Objekts P bilden, wie in Fig. 12E und 12F dargestellt, berechnet werden. Bei beispiels­ weise angenommen, daß die Oberseite des zu erkennenden Objekts P y = aUx + bU, ist und die linke Seite y = aLx + bL ist, wie in Fig. 13 dargestellt, dann sind die Koordinaten (xLU, yLU) der oberen linken Ecke gegeben durch:
Die Koordinaten (xC, yC) des Zentrums werden aus der vertikalen und horizontalen Länge und den Neigungen berechnet. Genauer, sei angenommen, daß die vertikale Länge WUB ist und die horizontale Länge WLR ist, dann sind die Koordinaten des Zentrums gegeben durch:
xC = xLU + wLR × 0.5 + (wLR × 0,5)/dx
yC = yLU + wUB × 0.5 + (wUB × 0,5)/dy,
wobei dx die Anzahl der Pixel entsprechend dem Denominator der Neigung (1/dx) der oberen oder unteren Seite des zu erkennenden Objekts P bedeutet und dy die Anzahl von Pixeln entsprechend dem Denominator der Neigung (1/dy) der rechten oder linken Seite des zu erkennenden Objekts P bedeutet, wie in dem oberen rechten und oberen linken Bereich der Fig. 13 dargestellt.
Die so erhaltene Positionsinformation oder Neigung werden in eine Erkennungssektion 109 eingegeben, die wiederum das Erkennungsverfahren auf Basis der Position durchführt, die von der Ganzobjektpositionsbestimmungssektion 108 bestimmt wurde. Beispielsweise kann die Erkennung durchgeführt werden, indem nur die Pixel in dem internen des bestimmten ganzen Bildes digitalisiert werden, d. h. des zu erkennenden Objekts P, und das Digitalisie­ rungsergebnis mit Verzeichnisdaten abgestimmt wird, die in dem Referenzbilddatenspei­ cher 110 gespeichert sind. Die Erkennung kann auch durchgeführt werden, indem die durchschnittliche Luminanz der Pixel nur des zu erkennenden Objektes P mit einem Bezugs- oder Referenzwert verglichen wird, der in dem Referenzbilddatenspeicher 110 gespeichert ist.
Im folgenden wird eine zweite Ausführungsform beschrieben.
Fig. 14 zeigt grob den Aufbau einer Bilderkennungsvorrichtung entsprechend der zweiten Ausführungsform. Die zweite Ausführungsform unterscheidet sich von der ersten Aus­ führungsform nur dahingehend, daß in der zweiten Ausführungsform eine Teilflächenextraktionssektion 201 und eine Teilbereichseinstellparametereingabesektion 202 nach der Gesamtobjektpositionsbestimmungssektion 108 angeordnet sind. Mit anderen Worten, wird bei dieser Ausführungsform nur eine Teilfläche des zu erkennenden Objektes P erkannt anstelle von dessen Gesamtfläche.
Die Teilflächeneinstellparametereingabesektion 202 hat den gleichen Aufbau wie die Parametereingabesektion 104 gemäß Fig. 2 und die einzugebenden Parameter enthalten die Größe (vertikale oder horizontale Länge) der Teilfläche, einen Referenzpunkt zum Ein­ stellen der Teilfläche und ein Relativverhältnis (das im folgenden beschrieben wird) von dem Bezugspunkt. Die Skala bzw. der Maßstab der Teilfläche ist der genau gleiche Maßstab (mm), während die in die Parametereingabesektion 105 einzugebenden Größe erhalten wird, indem der exakt gleiche Maßstab mit der Bildleseauflösung (Linien/mm) multipliziert wird.
Die Parameter unter werden unter Bezugnahme auf ein in Fig. 15 dargestelltes Beispiel beschrieben. Bei angenommen, daß die schraffierte Fläche E die Teilfläche ist. Die senkrechte und horizontale Linie der Teilfläche E werden durch y und x gegeben und der Referenzpunkt, der an einem oberen rechten Bereich angeordnet ist, ist durch P1 gegeben. Bei angenommen, daß die Breite (d. h. horizontale Länge) und Höhe des zu erkennenden Objektes durch w und h gegeben sind und daß der Abstand in x-Richtung zwischen dem Referenzpunkt P1 und dem Zentrum der Teilfläche E durch cX gegeben ist und das Relativverhältnis cR in x-Richtung cX/w beträgt. Bei weiter angenommen, daß der Abstand in y-Richtung zwischen dem Referenzpunkt P 1 und dem Zentrum der Teilfläche E durch cy gegeben ist und das Relativverhältnis in y-Richtung yR cy/h beträgt.
Die von der Teilflächeneinstellparametereingabesektion 202 eingegebenen Parameter werden zusammen mit dem mittels der Parametereingabesektion 104 eingegebenen Parame­ tern zu der Teilflächenextraktionsektion 201 geschickt. Die Teilflächenextraktionssektion 201 extrahiert eine Teilfläche, die dem Förderzustand entspricht, auf der Basis von Daten, die mittels der Gesamtobjektpositionsbestimmungssektion 108 erhalten werden und die vier Ecken, das Zentrum, die vertikalen und horizontalen Längen und die Neigung des zu erkennenden Objekts P betreffen. Die Zentrumsposition (xSC, ySC) der Teilfläche E ist gegeben durch:
xSC = xRU - w × xR + w × xR/dx
ySC = yRU - h × yR + h × yR/dy
Die Teilfläche E wird auf Basis der Zentrumsposition extrahiert bzw. hergeleitet, die durch die obigen Gleichungen erhalten wird. Da die Gesamtobjektpositionsbestimmungssektion 108 die vier Ecken auf der Basis der vier Seiten des zu erkennenden Objekts P erhält, kann sie idealerweise vier Ecken erhalten, die nicht von einer beispielsweise aktuell umgefalteten Ecke beeinflußt sind. Entsprechend ist die Sektion 108 frei von einem Verlust des Referenzpunkts P1 und kann als Referenzpunkt eine Ecke des zu erkennenden Objekts P verwenden, die der Teilfläche E am nächsten ist.
Wie vorstehend beschrieben, kann bei den Vorrichtungen entsprechend der ersten und zweiten Ausführungsformen zum Erkennen eines Bildes auf dem beförderten, zu erkennen­ den Objekts P das beförderte Objekt P genau auf der Basis von Information (Größe, Luminanz usw.) auf einem bereits bekannten zu erkennenden Objekt P oder Information über erlaubte Werte während der Beförderung (Ausmaß der Verdrehung, Verschiebung usw.) erkannt werden. Im Ergebnis kann ein Bild auf dem zu erkennenden Objekt P erkannt werden, ohne daß es vom Förderzustand, einer umgefalteten Ecke, einem Bruch, einem Fleck usw. beeinflußt wird.
Im folgenden wird eine dritte Ausführungsform beschrieben.
Fig. 16 zeigt grob den Aufbau einer Bilderkennungsvorrichtung entsprechend der dritten Ausführungsform. Die dritte Ausführungsform unterscheidet sich von ersten Ausführungs­ form nur dadurch, daß sie weiter eine Objektauswahlsektion 301, eine Akkumuliersektion 302 erfaßter unnormaler Daten, eine Anzeigesektion 303 erfaßter Unnormalitäten und eine Unnormalbereichsschätzsektion 304 enthält. Mit anderen Worten kann bei dieser Aus­ führungsform ein Bild eines zu erkennenden Objekts P erkannt werden, ohne vom Zustand der Beförderung beeinflußt zu sein.
Die Objektauswahlsektion 301 bestimmt auf Basis von Paaren von von der Längenerfas­ sungssektion 107 erfaßten Endpunkten ob oder ob nicht die Position des zu erkennenden Objektes P bestimmt werden kann. Genauer beurteilt die Sektion 301 aus der Anzahl von erfaßten Paaren von Endpunkten und dem Abstand zwischen jedem Paar ob oder ob nicht die Position des gesamten Objekts P bestimmt werden kann. Um die Position des gesamten Objekts P zu bestimmen, sind zwei oder mehr Paare von Endpunkten, die dem durch einen Parameter eingestellten Endpunktabstandsbereich genügen, in vertikaler und horizontaler Richtung notwendig. Die Sektion 301 beurteilt, ob oder ob nicht diese Bedingung erfüllt ist.
Wenn zwei oder mehr Paare, die der Bedingung genügen, nicht gefunden werden können, wird bestimmt, daß das zu erkennende Objekt P nicht erkannt werden kann, und die bis dahin erfaßte Information über die Endpunkte wird in der Akkumuliersektion 302 erfaßter unnormaler Daten akkumuliert. Fig. 17 zeigt ein Beispiel akkumulierter Daten. In diesem Fall wird ein Satz von Daten für eine Verarbeitungszahl gespeichert. Der Datensatz enthält die Anzahl der erfaßten Endpunkte und ihre Abstände.
Die Verarbeitungszahl zeigt die Zahl einer Verarbeitung oder eines Prozesses an, in dem keine Erfassung durchgeführt werden konnte. Mit anderen Worten zeigt die Verarbeitungs­ zahl an, wo das zu erkennende Objekt P sich in der Reihenfolge der bearbeiteten Objekte befindet. Um zu bestimmen bzw. zu entscheiden, ob Endpunkte, die nicht erfaßt werden konnten, in der vertikalen oder horizontalen Richtung angeordnet sind, können zwei Arten von Speichern mit einer Datenstruktur gemäß Fig. 17 vorbereitet werden, oder es kann nach der Verarbeitungszahl ein Flag eingefügt werden, das die Richtung anzeigt.
Die akkumulierten Daten sind nicht auf das Vorstehende beschränkt, sondern können zusätzlich zu den vorstehenden Daten Positions- oder Luminanzinformation der Endpunkte enthalten.
Die Objektauswahlsektion 301 enthält eine Zählsektion zum Zählen der Anzahl von Fällen, in denen keine Erfassung durchgeführt werden kann. Diese Zählsektion enthält einen ersten Zähler zum Zählen der gesamten Anzahl von nicht erfaßbaren Fällen, die während seines Betriebs aufgetreten sind, und weiter einen zweiten Zähler zum Zählen der Anzahl von nicht erfaßbaren Fällen, die ununterbrochen aufgetreten sind. Diese Zähler werden in­ itialisiert (der Zählerwert wird auf 0 rückgesetzt), wenn die Stromversorgung angeschaltet wird. Weiter zählt der erste Zähler 1, wenn ein zu erkennendes Objekt P vorhanden ist, das nicht erfaßt werden kann, während der zweite Zähler auf "0" rückgesetzt wird, wenn ein zu erkennendes Objekt P vorhanden ist, das erfaßt werden kann, und zählt 1, wenn ein zu erkennendes Objekt P vorhanden ist, das nicht erfaßt werden kann. Auf die Zähler­ ergebnisse kann, wenn erforderlich, über die Unnormalbereichsschätzsektion 304 Bezug genommen werden.
Wenn ein zu erkennendes Objekt P vorhanden ist, das nicht erfaßt werden kann, zeigt die Anzeigesektion 303 erfaßter Unnormalität eine Information, die dies anzeigt. Diese Sektion 303 ist durch eine Flüssigkristallanzeige oder eine LED gebildet. Wenn diese Sektion 303 aus einer LED gebildet ist, blinkt sie, wenn ein zu erkennendes Objekt P, das nicht erfaßt werden kann, gefunden wurde.
Wenn die Sektion 303 eine Flüssigkristallanzeige enthält, zeigt sie Daten gemäß Fig. 18 an. Fig. 18 zeigt ein Beispiel eines Anzeigebildschirms, der Daten anzeigt, die anzeigen, daß 48 unerfaßbare Fälle kontinuierlich aufgetreten sind. Zu diesem Zeitpunkt beendet das System den Erkennungsbetrieb. Die Anzeigesektion 303 erfaßter Unnormalitäten zeigt eine Botschaft, die auf ein Phänomen (Anhaften von Staub an dem optischen System) hindeutet, das von der Unnormalbereichsschätzstation 304 abgeschätzt bzw. beurteilt wird, und weiter eine Botschaft, die auf Maßnahmen zum Eliminieren des Phänomens (Reinigen) hindeutet. Wenn ein "Detail" Knopf, der rechtsseitig angeordnet ist, gedrückt wird, wird des weiteren die Ursache des durch die Botschaft angezeigten Phänomens angezeigt, d. h. Daten, die in der Akkumuliersektion 302 erfaßter unnormaler Daten gespeichert sind oder Analyseer­ gebnisse der Daten.
Wenn nicht erfaßbare Fälle kontinuierlich aufgetreten sind, schätzt die Unnormalbereichs­ schätzsektion 304 die Ursache ab bzw. beurteilt sie. Wenn der zweite Zähler (zum Zählen der Anzahl nicht erfaßbarer Fälle, die kontinuierlich aufgetreten sind) "2" oder mehr zählt oder einen Wert höher als ein eingestellter Wert anzeigt, analysiert die Unnormalbereichs­ schätzsektion 304 die letzten Daten erfaßter Unnormalitäten, die in der Akkumuliersektion 302 erfaßter unnormaler Daten gespeichert sind. Wenn Daten, wie in Fig. 17 gezeigt, gespeichert sind, wird eine Analyse durchgeführt, indem die Anzahl vertikaler (oder horizontaler) Endpunkte und Abstände dazwischen mit vorher registrierten Daten bezüglich unnormaler Phänomene verglichen werden.
Fig. 19 ist ein Flußdiagramm zur Erläuterung des Analysevorgangs. In der Figur zeigen die in rechteckigen Kästchen aufgeführten Phänomene abgeschätzte unnormale Phänomene an. Jedes unnormale Phänomen wird beurteilt bzw. eingeschätzt, indem die in der Akku­ muliersektion 302 erfaßter unnormaler Daten zuletzt gespeicherten unnormale Erfassungen betreffende Daten mit einem entsprechenden zulässigen Wert verglichen werden.
Die Anzahl der Analyseschritte ist nicht auf die in Fig. 19 Gezeigte beschränkt. Weiter sind die zu verwendenden Daten nicht auf die letzten Daten beschränkt, sondern es kann die Gesamtmenge an Daten, die kontinuierlich aufgetreten sind, verwendet werden. Beispielsweise wird die Anzahl der Objekte gezählt, die einer Bedingung für jede der vier Analysen in den Schritten S80, S82, S85 und S87 in Fig. 19 nicht genügen (d. h. die Anzahl von Paaren vertikaler Endpunkte, die Abstände dazwischen, die Anzahl von Paaren horizontaler Endpunkte und die Abstände dazwischen). Dann wird ein Unnormalitäts­ phänomen als der vorhandene unnormale Zustand eingeschätzt, das mit dem Vorgang, für den der gezählte Wert maximal ist, in Beziehung steht.
Der eingeschätzte unnormale Zustand wird auf das System rückgekoppelt, wenn es automatisch in den Normalzustand versetzt werden kann. Wenn beispielsweise die Förder­ geschwindigkeit unnormal ist, werden die Daten zu dem Steuergerät für die Förderge­ schwindigkeit gesendet, das die Fördergeschwindigkeit auf der Basis der Daten einstellt. Wenn dagegen der unnormale Zustand nicht automatisch normalisiert werden kann, stoppt das System und die Anzeigesektion 303 erfaßter Unnormalitäten zeigt eine diesbezügliche Botschaft an, wodurch ein Benutzer der Vorrichtung gewarnt wird.
Wie vorstehend beschrieben kann bei der Vorrichtung zum Erkennen eines Bildes auf einem beförderten zu erkennenden Objekt P entsprechend der dritten Ausführungsform das Objekt P genau auf der Basis von Information über ein bereits bekanntes Objekt P oder in Information über zulässige Werte während der Beförderung erfaßt werden. Wenn Fälle, in denen das zu erkennende Objekt P nicht erkannt werden kann, kontinuierlich vorliegen, wird ein Benutzer gewarnt und in einem frühen Zustand kann ein unnormaler Bereich des Systems durch Abschätzung bzw. Beurteilung herausgefunden werden.
Im folgenden wird eine vierte Ausführungsform beschrieben.
Fig. 20 zeigt grob den Aufbau einer Bilderkennungsvorrichtung entsprechend der vierten Ausführungsform. Die vierte Ausführungsform unterscheidet sich von der ersten Aus­ führungsform nur dadurch, daß die vierte Ausführungsform eine Parametereinstellhilfsein­ richtung 400 enthält. Mit anderen Worten wird bei dieser Ausführungsform der Förderzu­ stand des zu erkennenden Objekts P gemessen und das Meßergebnis wird als ein Parameter zum Erfassen des zu erkennenden Objekts P verwendet, um dadurch eine genauere Erfassung zu realisieren.
Die Parametereinstellhilfseinrichtung 400 enthält eine Betriebsartparametereingabesektion 401, eine Betriebsartschaltsektion 402, einen Erfassungsdatenakkumulierspeicher 403, eine Förderzustandsmeßsektion 404 und eine Parametererzeugungssektion 405.
Jedes Element der Einrichtung 400 wird im folgenden im Detail beschrieben.
Die Betriebsartparametereingabesektion 401 wird verwendet, um ein Signal einzugeben, das anzeigt, ob das System eine Parametereinstellung oder einen normalen Betrieb durch­ führt, und enthält eine Eingabeeinrichtung, wie ein Keyboard, eine Maus, ein Mundstück, ein Berührfeld, einen Schalter und eine Anzeigeeinrichtung zum Anzeigen des Eingabeer­ gebnisses. Wenn die Einstellart als Betriebsart gewählt ist, schaltet die Betriebsartschalts­ ektion 402 die Betriebsart auf Einstellbetrieb. Im Einstellbetrieb wird keine Erkennungs­ verarbeitung durchgeführt und Daten werden kontinuierlich in dem Erfassungsdaten­ akkumulierspeicher 403 akkumuliert.
Der Erfassungsdatenakkumulierspeicher 403 akkumuliert Paare von Endpunkten, die von der Endpunkterfassungssektion 106 erfaßt werden, gruppiert die Paare vertikal und horizontal jedesmal wenn sie erfaßt werden. Genauer speichert der Speicher als eine Dateneigenschaft vier Datenteile, die aus der X-Koordinate und Y-Koordinate eines Endpunktes, der X-Koordinate und Y-Koordinate eines anderen Endpunktes, der dem einen Endpunkt entspricht, bestehen. Weiter wird, wie in Fig. 17 dargestellt jedem erkannten Objekt P eine Seriennummer hinzugefügt, und die Daten werden in Einheiten eines Objekts P gespeichert.
Wenn die Betriebsart vom Einstellmodus in den Normalmodus umgeschaltet wird, mißt die Förderzustandsmeßsektion 404 einen Förderzustand, wie eine Verdrehung oder Verschie­ bung auf Basis der bis dahin akkumulierten Daten.
Wenn ein Verdrehungszustand gemessen wird, vergleicht die Förderzustandsmeßsektion 404 zuerst die vertikale Länge des zu erkennenden Objekt P mit seiner horizontalen Länge, die in die Parametereingabesektion 104 eingegeben werden, wodurch bestimmt wird, welche länger ist. Wenn die vertikale Länge länger ist, wird eine Linie nahe der linken Seite jedes zu erkennenden Objekts P erhalten. Wenn dagegen die horizontale Länge länger ist, wird eine Linie nahe der oberen Seite jedes zu erkennenden Objekts P erhalten. Durch Verwendung von Daten einer längeren Seite des zu erkennenden Objekts P wird eine verläßlichere Näherungslinie erhalten. Der durch die Näherungslinie erhaltene Koeffizient a zeigt die Neigung einer spezifizierten Seite an. Die gleiche Messung wie vorstehend beschrieben wird an allen Objekten P durchgeführt, die in dem Erfassungsdatenakkumilier­ speicher 403 akkumuliert sind, wodurch ein maximaler Koeffizient aMAX bestimmt wird. Unter der Annahme daß der zulässige Wert (d. h. der obere Grenzwert) für die Längener­ fassung durch s gegeben ist und die Neigung des Objekts P durch θ gegeben ist, wird die folgende Gleichung erhalten:
s = tanθ
θ wird aus arc tan aMAX erhalten und dieser Winkel zeigt das maximale Ausmaß der Verkippung an. Der zulässige Wert kann eingestellt werden, indem aMAX als der obere Grenzwert eingegeben wird.
Zur Messung des Ausmaßes der Verschiebung werden nur Erfassungsdaten bezüglich der horizontalen Endpunkte verwendet, die in den in dem Erfassungsdatenakkumulierspeicher 403 akkumulierten Daten enthalten sind. Unter der Annahme, daß die horizontale Länge des zu erkennenden Objekts P durch w gegeben ist, die mittlere Länge in x-Richtung der linken Endpunkte von der y-Achse durch LAV gegeben ist, das Zentrum des Gesichtsfeldes durch c gegeben ist, dann ist das Verschiebungsmaß SL gegeben durch:
SL = (c - w/2) - LAV
Die Verschiebungsmaße aller Objekte P werden berechnet, wodurch ihr maximaler Wert erhalten wird. Die Eingabe des maximalen Wertes als ein Parameter in die Endpunkt­ erfassungssektion 106 ermöglicht, den Endpunktabtastbereich schmaler zu machen und dadurch eine Verringerung der Anzahl der Abtastvorgänge.
Die Parametererzeugungssektion 405 speichert als Anfangsdaten Parameter, die in einem Speicher gespeichert sind, der in der Parametersektion 104 enthalten ist. Die Sektion 405 überschreibt einen Verdrehungswinkel und/oder ein Verschiebungsmaß, die in den An­ fangsdaten enthalten ist, in die Meßwerte, die von der Vorderzustandsmeßsektion 404 erhalten werden. Die neugeschriebenen Parameter werden in den Speicher in der Parame­ tereingabesektion 104 übertragen, wodurch die Parameter aktualisiert werden.
Wie vorstehend beschrieben kann bei der Vorrichtung zum Erkennen eines Bildes auf einem beförderten zu erkennenden Objekt P entsprechend der vierten Ausführungsform der Förderzustand jedes Objektes P gemessen werden und die Verwendung des Meßergebnis­ ses als ein Parameter zum Erfassen der Position des Objekts P ermöglicht eine genauere Erfassung des Objekts P.
Wie vorstehend im Detail beschrieben, schafft die Erfindung eine Bilderkennungsvor­ richtung, mit der zu erkennende Objekte genau erfaßt und erkannt werden können, selbst wenn ihre Positionen sich verschieben, während sie befördert werden.
Zusätzliche Vorteile und Modifizierungen sind jedem Fachmann ohne weiteres zugänglich. Entsprechend können verschiedene Abänderungen durchgeführt werden, ohne vom allgemeinen Erfindungsgedanken abzuweichen, wie er in den beigefügten Ansprüchen und ihren Äquivalenten definiert ist.

Claims (16)

1. Bilderkennungsvorrichtung mit
einer Bildeingabeeinrichtung (101) zum Eingeben eines Bildes eines zu erkennenden, beförderten Objektes;
einer Endpunkterfassungseinrichtung (106) zum Erfassen, auf der Basis des von der Bildeingabeeinrichtung eingegebenen Bildes, einer Mehrzahl von Paaren von Endpunkten, die Grenzpunkte zwischen dem zu erkennenden Objekt und einem Hintergrund davon anzeigen, wobei die Paare von Endpunkten auf vertikalen und horizontalen Linien vorhanden sind, die durch das zu erkennende Objekt hindurchgehen;
einer Längenerfassungseinrichtung (107) zum Erfassen vertikaler und horizontaler Längen des zu erkennenden Objektes auf der Basis einer Endpunktinformation, die von der Endpunkterfassungseinrichtung geliefert wird;
einer Vergleichseinrichtung (S23, S24) zum Vergleichen der von der Längen­ erfassungseinrichtung (107) gelieferten Längeninformation mit Werten, die innerhalb eines von einer idealen Länge x und einer Verdrehung θ abhängigen Bereichs liegen, um eine Endpunktpaarinformation zu bestimmen;
eine Positionsbestimmungseinrichtung (108) zum Bestimmen der Position eines gesamten Bereiches des zu erkennenden Objektes auf der Basis der Endpunkt­ paarinformation, die von der Vergleichseinrichtung geliefert wird; und
eine Erkennungseinrichtung (109) zum Vergleichen des von der Bildeingabeein­ richtung eingegebenen Bildes mit einem Referenzbild auf Basis der von der Positions­ bestimmungseinrichtung bestimmten Position, wodurch das von der Bildeingabeeinrichrung eingegebene Bild erkannt wird.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß sie zusätzlich eine Parametereingabeeinrichtung (104) zum Eingeben der Beförderungsbedingungen und von sich auf das zu erkennende Objekt beziehender Information enthält.
3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Endpunkterfassungseinrichtung (106) enthält:
eine Luminanzunterschiedserfassungseinrichtung (S5) zum Erfassen eines Lumin­ anzunterschiedes zwischen einem Zielpixel und einem dem Zielpixel nächst benachbarten Pixel;
eine Einrichtung (S6) zum Bestimmen, ob der von der Luminanzunterschieds­ erfassungseinrichtung erfaßte Luminanzunterschied größer ist als ein vorbestimmter Luminanzunterschied, der von der Parametereingabeeinrichtung eingegeben ist;
eine Einrichtung (S8) zum Beurteilen, daß die Luminanz des Zielpixels eine Hintergrundluminanz ist, wenn der erfaßte Luminanzunterschied größer als der vorbe­ stimmte Luminanzunterschied ist; und
eine Einrichtung (S14) zum Bestimmen, daß das dem Zielpixel nächst benachbarte Pixel ein Endpunkt ist, wenn ein Luminanzunterschied zwischen der Hintergrundluminanz und einer Luminanz jedes von Pixeln, die von dem dem Zielpixel nächst benachbarten Pixel bis zu einem n-ten Pixel reichen, größer als die vorbestimmte Luminanz ist, wobei n eine vorbestimmte Zahl ist.
4. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß eine Längen­ erfassungseinrichtung (107) eine Wähleinrichtung (Fig. 10A) zum Wählen einer wirksamen Endpunktpaareinformation aus der von der Endpunkterfassungseinrichtung (106) erfassten Endpunktpaareinformation enthält, auf der Basis der Beförderungsbedingungen und der sich auf das zu erkennende Objekt beziehenden Information, die von der Parame­ tereingabeeinrichtung (104) eingegeben ist.
5. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Längenerfas­ sungseinrichtung (107) eine Wähleinrichtung (S36) zum Wählen der effektiven Endpunkt­ paareinformation aus der von der Endpunkterfassungseinrichtung (106) erfassten End­ punktpaareinformation enthält, auf der Basis eines Verdrehzustandes des zu erkennenden Objektes und einer Ideallänge, die von der Parametereingabeeinrichtung (104) eingegeben ist.
6. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, daß die Längenerfas­ sungseinrichtung (107) weiter eine Einrichtung (Fig. 10B) zum Feststellen enthält, daß ein Maximalabstand, der in den Abständen der effektiven Endpunkte enthalten ist, die von der Wahleinrichtung gewählt sind, eine Länge des zu erkennenden Objektes ist.
7. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Längenerfas­ sungseinrichtung (107) eine Einrichtung (Fig. 10C, 10D) zum Bestimmen enthält, daß ein Mittelwert der Abstände, die von einem Maximalabstand zu einem n-ten Abstand reichen, die in den Abständen der von der Wähleinrichtung gewählten effektiven Endpunkte enthalten sind, eine Länge des zu erkennenden Objektes ist, wobei n eine vorbestimmte Zahl ist.
8. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Positions­ bestimmungseinrichtung (108) enthält:
eine Einrichtung (S23, S26) zum Erhalten einer Linie, nahe zu jeder Seite des zu erkennenden Objektes, wobei die von der Vergleichseinrichtung gelieferte Endpunktpaarinformation verwendet wird; und
eine Eckbeurteilungseinrichtung (S27) zum Beurteilen als Eckkoordinaten des zu erkennenden Objektes von Koordinaten jedes Schnittes zwischen Näherungslinien, die von der Einrichtung zum Erhalten einer Linie erhalten werden.
9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, daß die Positions­ bestimmungseinrichtung (108) weiter eine Extraktionseinrichtung (201) zum Extrahieren einer Teilfläche des zu erkennenden Objektes auf Basis der von der Eckbeurteilungsein­ richtung beurteilten Eckkoordinaten enthält; und die Erkennungseinrichtung (109) eine Einrichtung zum Vergleichen der von der Extraktionseinrichtung extrahierten Teilfläche mit einer entsprechenden Fläche in dem Referenzbild enthält, wodurch das von der Bildeingabeeinrichtung eingegebenen Bild erkannt wird.
10. Bilderkennungsvorrichtung nach Anspruch 1, ferner enthaltend:
eine Bestimmungseinrichtung (S33) zum Bestimmen ob oder ob nicht die Position des gesamten zu erkennenden Objektes erfaßt werden kann, auf Basis der Anzahl der wirksamen Endpunktpaare, die von der Vergleichseinrichtung geliefert werden; und
eine Akkumuliereinrichtung (302) zum Akkumulieren der das zu erkennende Objekt betreffenden Endpunktpaarinformation, wenn die Bestimmungseinrichtung be­ stimmt, daß die Position des zu erkennenden Objektes nicht erfaßt werden kann;
eine Anzeigeeinrichtung (303) zum Anzeigen eines Bestimmungsergebnisses der Bestimmungseinrichtung, wenn das Ergebnis anzeigt, das die Position des gesamten, zu erkennenden Objektes nicht erfaßt werden kann; und
eine Schätzeinrichtung (304) zum Schätzen eines unnormalen Bereiches der Bilderkennungsvorrichtung auf Basis der von der Akkumuliereinrichtung akkumulierten Endpunktinformation.
11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, daß die Bestim­ mungseinrichtung (S33) eine Einrichtung zum Beurteilen enthält, das die Position des gesamten zu erkennenden Objektes erfaßt werden kann, wenn es zwei oder mehr wirksame Paare von Endpunkten in vertikaler und horizontaler Richtung gibt.
12. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, daß die Anzeige­ einrichtung (303) eine Einrichtung zum Anzeigen aufweist, ob kontinuierliche Fälle, in denen das zu erkennende Objekt nicht erfaßt werden kann, vorhanden sind, der Anzahl der kontinuierlichen Fälle und der Anzahl der gesamten Fälle, in denen das zu erkennende Objekt nicht erfaßt werden kann.
13. Bilderkennungsvorrichtung nach Anspruch 1, ferner enthaltend
eine Parametereingabeeinrichtung (104) zum Eingeben von Parametern und Beförderungsbedingungen, die das zu erkennende Objekt betreffen;
eine Erfassungsinformationsspeichereinrichtung (403) zum Speichern von End­ punktpaareinformation, die von der Endpunkterfassungseinrichtung geliefert wird;
eine Beförderungszustandsbeurteilungseinrichtung (404) zum Beurteilen eines Beförderungszustandes des zu erkennenden Objektes auf Basis der in der Erfassungs­ informationsspeichereinrichtung (403) gespeicherten Information; und
eine Betriebsartschalteinrichtung (402) zum Versorgen der Längenerfassungs­ einrichtung oder der Erfassungsinformationsspeichereinrichtung mit der Endpunktpaarin­ formation, die von der Endpunkterfassungseinrichtung ausgegeben wird, auf der Basis eines Betriebsartparameters, der mittels der Betriebsartparametereingabeeinrichtung (401) eingegeben wird.
eine Parameteraktualisierungseinrichtung (405) zum Aktualisieren von Parametern, die mittels der Parametereingabeeinrichtung eingegeben wurden, auf Basis eines Beurteilungs­ ergebnisses der Beförderungszustandsbeurteilungseinrichtung.
14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß die Förderzu­ standsbeurteilungseinrichtung eine Einrichtung (S88) zum Beurteilen des Ausmaßes der Verdrehung des zu erkennenden Objektes enthält.
15. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß die Förderzu­ standsbeurteilungseinrichtung eine Einrichtung (S88) zum Beurteilen des Ausmaßes der Verschiebung des zu erkennenden Objektes enthält.
16. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß sie weiter enthält:
eine Betriebsartparametereingabeeinrichtung (401) zum Bezeichnen einer Be­ triebsart zur Bilderkennung oder einer Betriebsart für einen Parameterwechsel; und
eine Betriebsartschalteinrichtung (402) zum Versorgen der Längenerfassungs­ einrichtung oder der Erfassungsinformationsspeichereinrichtung mit der Endpunktpaarin­ formation, die von der Endpunkterfassungseinrichtung ausgegeben wird, auf der Basis eines Betriebsartparameters, der mittels der Betriebsartparametereingabeeinrichtung (401) eingegeben wird.
DE19926120A 1998-06-08 1999-06-08 Bilderkennungsvorrichtung Expired - Fee Related DE19926120C2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP15920098 1998-06-08
JP11146300A JP2000067247A (ja) 1998-06-08 1999-05-26 画像認識装置

Publications (2)

Publication Number Publication Date
DE19926120A1 DE19926120A1 (de) 1999-12-09
DE19926120C2 true DE19926120C2 (de) 2003-11-20

Family

ID=26477198

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19926120A Expired - Fee Related DE19926120C2 (de) 1998-06-08 1999-06-08 Bilderkennungsvorrichtung

Country Status (3)

Country Link
US (1) US6333997B1 (de)
JP (1) JP2000067247A (de)
DE (1) DE19926120C2 (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3962891B2 (ja) * 2000-08-09 2007-08-22 富士ゼロックス株式会社 文書画像処理装置、文書画像処理方法、及び記憶媒体
DE10050368A1 (de) * 2000-10-11 2002-04-18 Sick Ag Vorrichtung und Verfahren zur Erkennung von Codes
JP3437555B2 (ja) * 2001-03-06 2003-08-18 キヤノン株式会社 特定点検出方法及び装置
JP3776741B2 (ja) * 2001-03-29 2006-05-17 株式会社東芝 地図情報取得方法、地図情報取得システム及びプログラム
JP2004017318A (ja) * 2002-06-12 2004-01-22 Seiko Epson Corp 画像パターン出力精度の評価方法
US7418114B2 (en) * 2003-06-11 2008-08-26 Dainippon Screen Mfg. Co., Ltd. Print tone measuring method
US20050058350A1 (en) * 2003-09-15 2005-03-17 Lockheed Martin Corporation System and method for object identification
US7463774B2 (en) * 2004-01-07 2008-12-09 Microsoft Corporation Global localization by fast image matching
US8249391B2 (en) * 2007-08-24 2012-08-21 Ancestry.com Operations, Inc. User interface method for skew correction
CN101365077B (zh) * 2008-09-28 2012-06-20 华为终端有限公司 图像缩放方法及装置
US8370759B2 (en) 2008-09-29 2013-02-05 Ancestry.com Operations Inc Visualizing, creating and editing blending modes methods and systems
JP5258529B2 (ja) * 2008-12-02 2013-08-07 キヤノン株式会社 画像処理装置及びその方法、並びに、コンピュータプログラムおよび記憶媒体
JP6209885B2 (ja) * 2013-07-18 2017-10-11 富士ゼロックス株式会社 画像読取装置及び画像形成装置
US8885916B1 (en) 2014-03-28 2014-11-11 State Farm Mutual Automobile Insurance Company System and method for automatically measuring the dimensions of and identifying the type of exterior siding
US10013718B1 (en) 2014-07-11 2018-07-03 State Farm Mutual Automobile Insurance Company Method and system for automatically streamlining the vehicle claims process
US10755357B1 (en) 2015-07-17 2020-08-25 State Farm Mutual Automobile Insurance Company Aerial imaging for insurance purposes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5216724A (en) * 1989-02-10 1993-06-01 Canon Kabushiki Kaisha Apparatus for image reading or processing
EP0342060B1 (de) * 1988-05-13 1994-08-17 Canon Kabushiki Kaisha Gerät zur Bildherstellung
JPH06318246A (ja) * 1993-05-06 1994-11-15 Oki Electric Ind Co Ltd 紙葉類認識装置
EP0704821A2 (de) * 1994-09-28 1996-04-03 Omron Corporation Verfahren und Vorrichtung zur Bildverarbeitung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03210679A (ja) * 1990-01-12 1991-09-13 Hiyuutec:Kk パターンマッチング方法および装置
JPH0581408A (ja) * 1991-09-19 1993-04-02 Hiyuutec:Kk 欠点画像表示方法
US5371810A (en) * 1991-09-27 1994-12-06 E. I. Du Pont De Nemours And Company Method of determining the interior points of an object in a background
US5680471A (en) * 1993-07-27 1997-10-21 Kabushiki Kaisha Toshiba Image processing apparatus and method
DE59504541D1 (de) * 1994-09-07 1999-01-28 Ferag Ag Steuer- und Kontrollverfahren zur Anwendung in der Weiterverarbeitung von Druckereierzeugnissen
JP3380831B2 (ja) * 1996-03-08 2003-02-24 シャープ株式会社 画像形成装置
US5892854A (en) * 1997-01-21 1999-04-06 Xerox Corporation Automatic image registration using binary moments

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0342060B1 (de) * 1988-05-13 1994-08-17 Canon Kabushiki Kaisha Gerät zur Bildherstellung
US5216724A (en) * 1989-02-10 1993-06-01 Canon Kabushiki Kaisha Apparatus for image reading or processing
JPH06318246A (ja) * 1993-05-06 1994-11-15 Oki Electric Ind Co Ltd 紙葉類認識装置
EP0704821A2 (de) * 1994-09-28 1996-04-03 Omron Corporation Verfahren und Vorrichtung zur Bildverarbeitung

Also Published As

Publication number Publication date
US6333997B1 (en) 2001-12-25
JP2000067247A (ja) 2000-03-03
DE19926120A1 (de) 1999-12-09

Similar Documents

Publication Publication Date Title
DE19926120C2 (de) Bilderkennungsvorrichtung
DE102008034304B4 (de) Bildverarbeitungsgerät
EP0527285B1 (de) Verfahren zum Beurteilen von bedruckten Bogen
DE69911725T2 (de) Gerät zur Ermittlung des Schmutzgrades von bedrucktem Material
DE19814075B4 (de) Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern
DE3443816A1 (de) Anordnung zur ueberpruefung der durch eine glasscheibe hervorgerufenen verzerrung
DE19841682B4 (de) Vorrichtung und Verfahren zur Verbesserung der Scanqualität eines Scanners
DE2939396A1 (de) Lagenabtastvorrichtung
WO2013011013A2 (de) Verfahren und vorrichtung zur ocr-erfassung von wertdokumenten mittels einer matrixkamera
DE69929110T2 (de) Einrichtung und Verfahren zur Erzeugung von Druckdaten des zweidimensionalen Koden und zugehöriges Aufzeichnungsmedia
DE112012004847B4 (de) Verfahren und System zum Detektieren von Linien in einem Bild und Spurdetektionssystem zum Analysieren von Straßenbildern
EP1578609B1 (de) Verfahren und vorrichtung zur echzeitkontrolle von druckbildern
DE102005025220B4 (de) Gerät, Verfahren und Programm zum Beseitigen von Poren
DE69813416T2 (de) Vorrichtungen zur Linienrichtungsbestimmung, Bildschrägeerfassung und Bildschrägekorrektur.
DE69728469T2 (de) Gerät und Verfahren zur Ermittlung der Zeichenlinie mittels vereinfachter Projektionsinformation; Zeichenerkennungsgerät und Verfahren
DE3303841C2 (de) Musterprüfeinrichtung und Verfahren zum Prüfen eines Musters
DE69019951T2 (de) Apparat zur Untersuchung von Drucksachen und entsprechendes Verfahren.
DE102004050360A1 (de) Druckzustands-Kontrollverfahren, Zeichenfolge-Kontrollverfahren und Kontrollvorrichtung, die die Verfahren verwendet
EP3680106A1 (de) Mn-detektion im druckbild
DE69732508T2 (de) Laser-Strichcodeleser für einen Brennstab in einem Siedewasserkernreaktor
DE19700318A1 (de) Verfahren zur Bestimmung der Geometriedaten von Abtastvorlagen
DE19644793C2 (de) Verfahren zur Abschattungskorrektur in einem Bildlesegerät
DE10302634B4 (de) Verfahren und Vorrichtung zur Identifikation und Kompensation einer perspektivischen Verzerrung
EP1139285B1 (de) Verfahren und Vorrichtung zur Prüfung bzw. Untersuchung von Gegenständen
EP4205091B1 (de) Vorrichtung zum erzeugen einer digitalen kennung von einem mindestens ein druckbild aufweisenden exemplar eines druckerzeugnisses, smartphone oder tablet mit dieser vorrichtung und verfahren zur verwendung dieser vorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8304 Grant after examination procedure
8328 Change in the person/name/address of the agent

Representative=s name: KRAMER - BARSKE - SCHMIDTCHEN, 81245 MUENCHEN

8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140101