DE10040614A1 - Verfahren zur automatischen Erkennung einer gerichteten Struktur - Google Patents

Verfahren zur automatischen Erkennung einer gerichteten Struktur

Info

Publication number
DE10040614A1
DE10040614A1 DE10040614A DE10040614A DE10040614A1 DE 10040614 A1 DE10040614 A1 DE 10040614A1 DE 10040614 A DE10040614 A DE 10040614A DE 10040614 A DE10040614 A DE 10040614A DE 10040614 A1 DE10040614 A1 DE 10040614A1
Authority
DE
Germany
Prior art keywords
feature
digital image
texture
value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10040614A
Other languages
English (en)
Inventor
Frank Mueller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gavitec AG
Original Assignee
GAVITEC GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GAVITEC GmbH filed Critical GAVITEC GmbH
Priority to DE10040614A priority Critical patent/DE10040614A1/de
Priority to AU2001283792A priority patent/AU2001283792A1/en
Priority to DE10193420T priority patent/DE10193420D2/de
Priority to PCT/DE2001/002993 priority patent/WO2002015118A1/de
Priority to EP01962610A priority patent/EP1312034A1/de
Publication of DE10040614A1 publication Critical patent/DE10040614A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/1093Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing, after transfer of the image of the data-field to an intermediate store, e.g. storage with cathode ray tube
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1443Methods for optical code recognition including a method step for retrieval of the optical code locating of the code in an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1456Methods for optical code recognition including a method step for retrieval of the optical code determining the orientation of the optical code with respect to the reader and correcting therefore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

Um den Ort und die Orientierung einer gerichteten Struktur in einem digitalen Bild automatisch erkennen zu können, schlägt die Erfindung ein Verfahren vor, bei dem das digitale Bild in vorzugsweise zusammenhängende Blöcke unterteilt wird und für jeden Block mindestens ein Texturmerkmal bestimmt wird, welches ein Maß für die Strukturierung der Blöcke entlang vorgegebener Vorzugsrichtungen darstellt und aus den Texturmerkmalen Parameter ermittlet werden, die den Ort und die Orientierung einer gerichteten Struktur in dem digitalen Bild angeben.

Description

Die Erfindung betrifft ein Verfahren zur automatischen Erkennung eines Ortes und einer Orientierung einer gerichteten Struktur in einem digitalen Bild, insbesondere zur Bestimmung des Ortes und der Orientierung eines in dem digitalen Bild enthaltenen Barcodes.
Es sind verschiedene Verfahren zur Erkennung und Lokalisierung gerichteter Strukturen in Bildern bekannt. Beispielsweise gibt es Verfahren, bei denen aus einem Bild durch Anwendung eines Operators (z. B. eines Laplacian-of-Gaussian-Operators, kurz LoG-Operator) ein zweites Bild berechnet wird, dessen Pixelwerte nicht die Helligkeit, sondern den lokalen Kontrast am Ort der jeweiligen Pixel darstellen. In einem zweiten Schritt wird dann dieses zweite Bild daraufhin untersucht, ob es entlang im wesentlichen gerader und im wesentlichen paralleler Linien Pixel enthält, die hohe Werte aufweisen.
Ein Nachteil solcher Methoden besteht in dem hohen Rechenaufwand, der aufwendige Recheneinheiten oder lange Auswertezeiten erfordert. Schon die Verwendung eines Operators kann für viele Anwendungen zu aufwendig sein. Nochmehr gilt dies für die sich anschließende Auswertung des zweiten Bildes.
Andere Verfahren bestimmen innerhalb lokaler Bildbereiche die zweidimensionale Autokorrelationsfunktion (AKF) oder das zweidimensionale Fourierspektrum. Die Werte der AKF oder des Fourierspektrums werden daraufhin weiterverarbeitet, um diese Informationen über die Strukturierung der zugehörigen Bereiche zu erhalten. Auch bei diesen Methoden ist der Rechenaufwand sehr hoch.
Die angesprochenen gerichteten Strukturen in Bildern können auch Barcodes sein. Diese Barcodes sind spezielle optische Codes, die beispielsweise aus parallelen Strichen (Bars) unterschiedlicher Dicke bestehen, die durch Lücken (Spaces) unterschiedlicher Dicken voneinander getrennt sind. Die Abfolge der Dicken der Bars und Spaces stellen die im Barcode gespeicherte Information dar. Barcodes können auf Warenverpackungen und Etiketten aufgedruckt werden, oder zur direkten Markierung verschiedenster Produkte verwendet werden. Ein wesentliches Merkmal ist dabei die Maschinenlesbarkeit von Barcodes. Das heißt, dass es mit einer speziellen Apparatur (Barcodeleser) möglich ist, die in einem Barcode gespeicherte Information zurückzugewinnen.
Zur Lesung von Barcodes bestehen zur Zeit zwei grundsätzlich verschiedene Verfahrensklassen.
Bei der einen Klasse wird durch Abtasten der Vorlage mit einem Laserstrahl ein Zeitsignal gebildet, das von einer nachfolgenden Recheneinheit ausgewertet wird. Hierbei spricht man von einem sogenannten 1D-Verfahren. Bei Lesegeräten, die nach dem 1D-Verfahren arbeiten, kann eine Lesung des Barcodes nur dann erfolgen, wenn der Laserstrahl den Barcode quer zu den Bars und Spaces schneidet. Wenn die relative Lage von Barcode und Lesegerät nicht von vornherein festliegt, eine Lesung des Codes aber dennoch ermöglicht werden soll (lageunabhängig), ist es erforderlich, die Vorlage entlang verschiedener Richtungen mehrfach abzutasten (omnidirektionale Lesung). Vorrichtungsgemäß wird dies üblicherweise mit bewegten Spiegeln erreicht, die den Laserstrahl so lenken, dass die Vorlage an verschiedenen Orten und entlang verschiedener Richtungen abgetastet wird. Nachteilig ist hierbei die Notwendigkeit bewegte Teile einzusetzen, wodurch sich unter anderem Einschränkungen bei der minimalen Baugröße und der Standzeit ergeben.
Bei der anderen Klasse wird die Szene von einer mit einem elektronischen Sensor ausgestatteten Kamera aufgenommen und das auf den Sensor projizierte Bild digitalisiert. Das digitale Bild wird dann zur Auswertung an eine Dekodiereinheit übertragen (2D-Verfahren). Ein Vorteil von 2D- Verfahren besteht darin, dass man bei diesem Barcodeleser auf bewegte Teile verzichten kann. Ein weiterer Vorteil besteht darin, das in der Dekodiereinheit ein digitales Bild vorliegt, welches ein Abbild des Barcodes enthält.
Die Dekodiereinheit kann dabei wahlfrei auf die einzelnen Pixel des Bildes zugreifen, wodurch die Klasse möglicher Dekodiermethoden wesentlich erweitert wird. Insbesondere kann das gesamte Repertoire der Methoden der digitalen Bildverarbeitung im Sinne einer Vorverarbeitung des Bildes verwendet werden. Es lassen sich dadurch Fehler oder Störungen des Codes, die beispielsweise beim Druckprozess entstehen können, in gewissen Grenzen ausgleichen.
Bei den 2D-Verfahren zur Codedekodierung kann man unterscheiden, ob eine Bestimmung des Ortes und der Orientierung des Barcodes im Bild vorgenommen wird (lokalisierende Verfahren) oder nicht.
Lokalisierende Verfahren sind insbesondere dann vorteilhaft, wenn die Lage und/oder die Orientierung des Barcodes innerhalb des Sichtfeldes der Kamera nicht sicher vorausgesagt werden kann und der Barcode zudem gelesen werden soll (omnidirektionale Lesung).
Bei nicht lokalisierenden Verfahren erzielt man die Fähigkeit zur omnidirektionalen Lesung durch Auswertung des Bildes entlang einer Vielzahl von virtuellen Scanlinien. Es wird also aus dem Bild ein 1D- Signal gebildet, indem die Grauwerte des Bildes an verschiedenen Orten entlang verschiedener Richtungen ausgelesen werden. Das so gebildete 1D-Signal wird daraufhin mit grundsätzlich ähnlichen Verfahren ausgewertet, wie ein von einem Laserscanner generiertes Zeitsignal. Unvorteilhaft ist dabei, dass die Grauwerte des Bildes entlang einer Vielzahl von Linien ausgewertet werden und sich somit einerseits der Rechenaufwand vervielfacht und andererseits die Gefahr von Fehllesungen erhöht wird.
Bei einem bekannten Verfahren, das diese Nachteile durch eine Orts- und Lagebestimmung des Barcodes vermeidet, werden in der direkten Umgebung des Barcodes zusätzliche Markierungen angebracht. Diese Markierungen werden in einem ersten Schritt von einem entsprechend modifizierten Lesegerät erkannt. Da sich die Markierungen in einem vorbestimmten Abstand zum Barcode befinden, ist mit der Lokalisierung der Markierungen auch der Barcode lokalisiert. Bei diesem Verfahren ist es nachteilig, dass es bedruckte Markierungen erfordert. Da diese Markierungen nicht Bestandteil eines allgemein verbindlichen Standards sind, werden diese nicht durchgängig verwendet.
Außerdem benötigen die zusätzlichen Markierungen auch eine zusätzliche bedruckte Fläche. Gerade bei der Markierung von Waren (EAN/UPC) ist die bedruckbare Fläche als Werbemedium kostbar, weshalb sich die Verwendung zusätzlicher Markierungen bisher nicht durchsetzen konnte.
Da Barcodes aus parallelen Strichen aufgebaut sind, stellen sie im Sinne der digitalen Bildverarbeitung gerichtete Strukturen dar und es ist prinzipiell möglich, die aus der digitalen Bildverarbeitung stammenden Verfahren zur Lokalisierung gerichteter Strukturen (Texturanalyse) auch zur Lokalisierung von Barcodes einzusetzen. Diese Verfahren erfordern jedoch die Anwendung von speziellen Operatoren (z. B. LoG-Operator), die Bestimmung zweidimensionaler Korrelationsfunktionen oder die Bestimmung des zweidimensionalen Fourierspektrums, also die Anwendung rechenaufwendiger Algorithmen und sind deshalb zur Lokalisation von Barcodes nicht wirtschaftlich einsetzbar.
Es ist somit Aufgabe vorliegender Erfindung, ein Verfahren bereitzustellen, welches sich zur automatischen Erkennung eines Ortes und einer Orientierung einer gerichteten Struktur in einem digitalen Bild, insbesondere zur Erkennung eines in einem digitalen Bild enthaltenen Barcodes, sowie zur zumindest näherungsweise Bestimmung des Ortes und der Orientierung dieses Barcodes wirtschaftlich einsetzten lässt.
Erfindungsgemäß ist die obige Aufgabe dadurch gelöst, dass in einem Verfahren zur automatischen Erkennung eines Ortes und einer Orientierung einer gerichteten Struktur in einem digitalen Bild, insbesondere zur Bestimmung des Ortes und der Orientierung eines in dem digitalen Bild enthaltenen Barcodes, das digitale Bild in vorzugsweise zusammenhängende Blöcke unterteilt wird und für jeden Block mindestens ein Texturmerkmal bestimmt wird, welches ein Maß für die Strukturierung der Blöcke entlang vorgegebener Vorzugsrichtungen darstellt, und aus den Texturmerkmalen Parameter ermittelt werden, die den Ort und die Orientierung einer gerichteten Struktur in dem digitalen Bild angeben.
Vorteilhafterweise ist das Bild dabei ein von einem kamerabasierten Codelesegerät aufgenommenes Abbild einer realen Szene, die unter anderem einen Barcode enthält. Unter einem elektronisch vorliegenden oder digitalen Bild wird hierbei ein aus einer Matrix von Bildelementen (Pixeln) zusammengesetztes Objekt verstanden, wobei jedem Pixel ein Ort (üblicherweise in Form eines Zeilenindex und des Spaltenindex) sowie ein die Helligkeit am Ort des Pixels kennzeichnender Wert (Wert des Pixels) zugeordnet ist. Es können aber auch auf andere Weise erzeugte, in elektronischer Form vorliegender Bilder mit dem vorgestellten Verfahren automatisch analysiert werden.
Besonders vorteilhaft ist bei dem erfindungsgemäßen Verfahren, dass sich der Rechenaufwand gegenüber bekannten Verfahren zur Lokalisierung gerichteter Strukturen, um ein vielfaches reduziert. Die Anwendung dieses Verfahrens zur Lokalisierung von Barcodes wird durch diesen verringerten Rechenaufwand sehr interessant.
Einen weiteren Vorteil, den das erfindungsgemäße Verfahren mit sich bringt, ist, dass keine zusätzlichen Markierungen erforderlich sind, welche bei herkömmlichen Verfahren zur Lokalisierung und Orientierungsbestimmung für den Barcode benötigt wurden. Somit wird auch keine zusätzliche Fläche für die Markierungen benötigt, wodurch diese Fläche als eventuelle Werbefläche zur Verfügung steht.
Vorteilhaft bei dem Verfahren ist ebenfalls, dass nach der Lokalisierung nur noch eine einzige Linie ausgewertet werden muss.
Außerdem verringert die Konzentration auf diejenigen Bildbereiche, die mit hoher Wahrscheinlichkeit Barcodes enthalten, die Gefahr von Fehllesungen.
Zur Lokalisierung einer gerichteten Struktur wird das digitale Bild in Bereiche eingeteilt, die sogenannten Blöcke. Dabei ist es vorteilhaft, wenn die Blöcke zusammenhängend sind und eine rechteckige Form, vorzugsweise eine quadratische Form, aufweisen. Für jeden dieser Blöcke, wird eine vorgegebene Anzahl von ersten richtungsempfindlichen Merkmalen, den sogenannten "Merkmalen erster Ordnung" berechnet. Diese "Merkmale erster Ordnung" werden im folgenden auch als "erste Texturmerkmale" bezeichnet.
Die Berechnungsvorschrift für diese "Merkmale erster Ordnung" wird dabei durch sogenannte Merkmalsfunktionen beschrieben. Eine Merkmalsfunktion ist eine Zuordnungsvorschrift, die einem Block in eindeutiger Weise eine Zahl zuordnet. Alle Merkmalsfunktionen sind dabei so gestaltet, dass einem Block um so höhere Werte zugeordnet werden, je größer die Grauwertunterschiede des Blocks entlang einer vorbestimmten Vorzugsrichtung sind. Es wird also ein Satz von Merkmalsfunktionen festgelegt, wobei jeder der Merkmalsfunktionen aus diesem Satz eine Vorzugsrichtung zugeordnet werden kann, entlang der ein Bildblock ausgewertet wird. Dabei sind die Merkmalsfunktionen so gestaltet, dass die zugehörigen Vorzugsrichtungen die Gesamtheit aller Richtungen möglichst gleichmäßig abdecken.
Insbesondere werden die Merkmalsfunktion so gewählt, dass je zwei beliebig ausgewählte verschiedene Merkmalsfunktionen auch verschiedene Vorzugsrichtungen besitzen. Dabei wird ein "Merkmal erster Ordnung" durch Anwendung einer Merkmalsfunktion auf einem Block bestimmt. Man erhält also für jeden Block und für jede Merkmalsfunktion einen Wert.
Es ist vorteilhaft, wenn das Verhältnis der Anzahl Pixel pro Block zu der Anzahl der Merkmalfunktionen deutlich größer als 1 ist, weil dann die Anzahl der Merkmale pro Bild deutlich geringer ist als die Anzahl der Pixel des Bildes, wodurch sich die Komplexität der nachfolgenden Berechnung wesentlich verringert.
Um nun zusätzlich Einsparungen an Rechenzeit und Speicherzugriffzeit zu gewinnen, ist es vorteilhaft, jeweils nur einen Teil der Pixel eines Blocks auszuwerten.
Man kann sich dabei die Merkmalsfunktion auch als eine "Messeinrichtung" vorstellen, die die "Aktivität" eines Bildes oder eines Bildausschnittes entlang der Vorzugsrichtung misst. Das Texturmerkmal entspricht dann dem "Ausschlag" des richtungssensitiven Messgerätes "Merkmalsfunktion". Beinhaltet ein Block eine gerichtete Struktur, so wird ein Texturmerkmal, das im wesentlichen parallel zu der Struktur verläuft, einen relativ geringen Wert aufweisen. Ein Merkmal, das im wesentlichen senkrecht zu der Struktur verläuft, wird hingegen einen relativ hohen Wert aufweisen. Eine gerichtete Struktur innerhalb eines Blockes wird also auf zwei verschiedene Weisen detektiert.
Zum einen äußert sich eine gerichtete Struktur durch hohe Werte einer Merkmalsfunktion, deren Vorzugsrichtung im wesentlichen senkrecht zur Struktur steht. Zum anderen äußert sich eine gerichtete Struktur durch niedrige Werte einer Merkmalsfunktion, deren Vorzugsrichtung im wesentlichen parallel zur Struktur verläuft.
Dadurch ergeben sich bereits zwei Möglichkeiten, eine gerichtete Struktur in einem Block zu erkennen. Einerseits kann man besonders niedrige Werte eines Texturmerkmals als Hinweis auf das Vorliegen einer gerichteten Struktur entlang der zum Texturmerkmal gehörigen Vorzugsrichtung verwenden, andererseits kann man besonders hohe Werte eines Texturmerkmals als Hinweis auf das Vorliegen einer gerichteten Struktur senkrecht zur Vorzugsrichtung verwenden.
Um den Einfluss ungerichteter Strukturen zu eliminieren, kann bei dem erfindungsgemäßen Verfahren aus je zwei "Merkmalen erster Ordnung", deren Merkmalsfunktionen sich durch im wesentlichen zueinander senkrecht stehende Vorzugsrichtungen auszeichnen, ein neues "zweites Texturmerkmal" bestimmt werden. Die Verknüpfung je zweier "Merkmale erster Ordnung" wird dann so gestaltet, dass das resultierende "zweite Texturmerkmal" hohe Werte annimmt, wenn der Wert des einen "Merkmals erster Ordnung" hoch und gleichzeitig der Wert des anderen "Merkmals erster Ordnung" niedrig ist. Ein solchermaßen durch Verrechnung zweier "Merkmale erster Ordnung" bestimmtes "zweites Texturmerkmal" wird im folgenden auch "Merkmal zweiter Ordnung" genannt.
Ein "Merkmal zweiter Ordnung" nimmt also einen hohen Wert an, wenn der Block entlang der Vorzugsrichtung eine hohe Aktivität und gleichzeitig senkrecht zur Vorzugsrichtung eine niedrige Aktivität aufweist. Man erreicht auf diese Weise, dass weder strukturarme Bereiche noch ungerichtete strukturierte Bereiche zu einem hohen Wert eines "Merkmals zweiter Ordnung" und damit zu einer Fehlinterpretation (vermeintliche Erkennung einer nicht vorhandenen gerichteten Struktur) führen können.
Im folgenden wird unter einem "Merkmal zweiter Ordnung" ein Merkmal verstanden, dessen Wert ein Maß für die Wahrscheinlichkeit des Vorliegens einer gerichteten Struktur senkrecht zu einer Vorzugsrichtung darstellt, unabhängig davon, ob es durch Verrechnung zweier "Merkmale erster Ordnung" oder in einem einzigen Schritt berechnet wurde.
Die jeweils zur gleichen Richtung gehörigen "zweiten Texturmerkmale" werden in sogenannten Merkmalskarten eingetragen, und zwar jeweils an der Stelle, an der sich der zugehörige Block des Eingangsbildes befindet. Die Merkmalskarte ist dabei ein verkleinertes Bild, deren Pixel nicht mehr die Helligkeit des Ursprungsbild, sondern die Wahrscheinlichkeit für das Vorliegen einer gerichteten Struktur einer bestimmten Richtung angeben.
Vorteilhaft ist es dabei, dass nicht jedem Pixel des Originalbildes ein eigener Merkmalswert zugeordnet ist, sondern die verschiedenen Merkmalswerte zu den Blöcken gehören und somit die Merkmalskarte entsprechend kleiner ist, als das Originalbild.
Vorteilhaft ist weiter, dass sich die Auswertung nur auf die vorher bestimmten Merkmale, nicht aber auf die Grauwerte des Bildes stützt. Damit lässt sich ein deutlich geringerer Rechenaufwand erreichen, als beispielsweise ein mit einem LoG-Operator erzeugtes Bild. Dies liegt einerseits an der Datenreduktion (die Anzahl der Merkmale ist geringer als die Anzahl der Pixel im Eingangsbild), andererseits liegt dies aber auch daran, dass die Merkmalsfunktionen so konstruiert sind, dass sie Rückschlüsse auf die lokale Orientierung der einzelnen Bildbereiche zulassen.
Durch diese Vorteile lassen sich Auswertungsergebnisse effizienter und damit wirtschaftlicher erreichen. Als Ergebnis dieses Verfahrens stehen Parameter zur Verfügung, die eine Aussage über den Ort und die Orientierung bzw. eine Winkellage einer gerichteten Struktur in einem digitalen Bild angeben. Weiterhin kann durch die Parameter eine Wahrscheinlichkeit für die Existenz einer gerichteten Struktur ermittelt werden.
Eine Ausführungsform sieht vor, zunächst diejenigen "Merkmale zweiter Ordnung" in jeder Merkmalskarte zu Null zu setzen, deren Merkmalswerte unterhalb einer geeignet gewählten Schwelle liegen, und zur weiteren Auswertung nur noch diejenigen Merkmale heranzuziehen, deren Wert echt positiv ist. Die Höhe der Schwelle hat im wesentlichen Einfluss auf die Detektionsempfindlichkeit.
Bei diesem Verfahren ist es vorteilhaft, eine niedrige Schwelle zu wählen, wenn man auch gerichtete Strukturen mit geringem Kontrast detektieren möchte. Umgekehrt ist es vorteilhaft, eine hohe Schwelle zu wählen, wenn die zu erkennende Struktur einen hohen Kontrast hat (z. B. bei einem einwandfrei aufgedruckten Barcode), man aber gleichzeitig mit kontraststarken texturierten Störungen in der Umgebung der gesuchten gerichteten Struktur rechnet.
Dabei wird zunächst von allen Merkmalskarten eine Merkmalskarte ausgewählt, die mit hoher Wahrscheinlichkeit die Existenz einer gerichteten Struktur im Bild anzeigt. Es ist auch vorteilhaft, diejenigen Merkmalskarten auszuwählen, deren Werte den größten Mittelwert aufweisen. Die so ausgewählte "beste" Merkmalskarte wird weiter untersucht, um die Existenz einer gerichteten Struktur zu bestätigen oder zu verwerfen. Der Ort einer im Bild vorhandenen gerichteten Struktur kann durch die Bestimmung eines Lageparameters (z. B. Mittelwert, gewichteter Mittelwert, Median) der Merkmalskarte geschätzt werden. Die Winkellage der gerichteten Struktur ergibt sich grob bereits aus der der ausgewählten Merkmalskarte zugeordneten Vorzugsrichtung. Eine genauere Schätzung der Orientierung der Struktur wird durch die Anwendung eines Regressionsverfahrens aus der Merkmalskarte ermittelt.
Vorteilhaft für die Bestimmung der Merkmalskarte erster Ordnung ist eine blockweise Auswertung von Grauwertdifferenzen von Bildpunktpaaren entlang der gewählten Vorzugsrichtung, weil diese Methode gegenüber der Bildung der zweidimensionalen Autokorrelationsfunktion oder der des zweidimensionalen Fourierspektrums mit deutlich geringerem Rechenaufwand implementierbar ist.
Um den Rechen- sowie den Zeitaufwand weiter zu minimieren, ist es vorteilhaft bei der Auswertung der Texturmerkmale zunächst diejenigen Vorzugsrichtungen auszuwählen, deren zugehörige Texturmerkmale sich am besten mit der Existenz der gerichteten Struktur im Bild erklären lassen. Durch dieses Verfahren lässt sich der Datenaufwand weiterhin reduzieren.
Weitere Vorteile, Ziele und Eigenschaften vorliegender Erfindung werden anhand nachfolgender Erläuterungen anliegender Zeichnung dargestellt, in welcher beispielhaft das Erkennungsverfahren dargestellt ist.
Es zeigt
die Figur eine schematische Darstellung des Erkennungsverfahrens anhand eines Ausführungsbeispieles.
In dem Ausführungsbeispiel, welches in der Figur dargestellt ist, ist eine Bildaufnahmeeinheit mit einer Recheneinheit verbunden. Die Bildaufnahmeeinheit liefert dabei ein digitalisiertes Bild der Größe 640 × 480 Bildpunkte mit typischerweise 256 Graustufen an die Recheneinheit.
Das Bild wird danach zuerst in 20 × 15 nicht überlappende Blöcke der Größe 32 × 32 Bildpunkte eingeteilt. Weiter werden für jeden dieser Blöcke vier "Merkmale erster Ordnung" bestimmt. Dabei wird die Berechnungsvorschrift jeden "Merkmal erster Ordnung" durch jeweils eine Merkmalsfunktion beschrieben.
Jede Merkmalsfunktion weist dabei jedem Bildblock in eindeutiger Weise eine Zahl zu, und ist jeweils durch zwei Parameter festgelegt, und zwar durch
  • 1. einen sogenannten Cliquenvektor (Delta_x, Delta_y)
  • 2. ein Inkrement DSAMPLE.
Die Komponenten des Cliquenvektors sind dabei ganzzahlig (positiv oder negativ), und das Inkrement DSAMPLE ist eine natürliche Zahl.
Zur Bestimmung eines Merkmals erster Ordnung werden alle Bildpunktpaare ((x1, y1), (x2, y3)) gebildet, die die folgenden Bedingungen gleichzeitig erfüllen:
1. sie liegen vollständig innerhalb des betrachteten Blocks,
2. es gilt x1-x2 = Delta_x und y1-y2 = Delta_y,
3. x1 und y1 sind durch DSAMPLE teilbar.
Dabei besagt die Bedingung 2, dass sich die Bildpunktpaare dadurch
auszeichnen, dass zum einen die Verbindungslinie zwischen den Bildpunkten des Paares entlang der durch den Cliquenvektor gegebenen Vorzugsrichtung läuft und dass zum anderen der Abstand von je zwei Punkten eines Punktpaares konstant ist.
Bedingung 3 erlaubt es, nur einen Teil der nach Bedingung 2 innerhalb eines Blocks möglichen Punktpaare auszuwählen und ermöglicht damit eine Reduktion des Rechenaufwandes zur Bestimmung des jeweiligen Texturmerkmals.
Als nächster Schritt wird das "Merkmal erster Ordnung" bestimmt. Dabei wird für jedes Bildpunktpaar, das die obigen Bedingungen erfüllt, der Absolutbetrag der Differenz oder das Quadrat der Differenz zwischen den Grauwerten der beiden Punkte ermittelt. Anschließend werden die so erhaltenen Werte summiert.
Beim Implementierungsbeispiel werden vier Cliquenvektoren verwendet, nämlich
c1 = (3,0) (dies ist die waagerechte Vorzugsrichtung),
c2 = (0,3) (dies ist die senkrechte Vorzugsrichtung),
c3 = (2,2) (dies ist die diagonale Vorzugsrichtung),
c4 = (-2,2) (dies ist die antidiagonale Vorzugsrichtung).
Dabei wird DSAMPLE zu 4 gesetzt, wodurch sich eine Einsparung an Rechenzeit von ungefähr 16 gegenüber einem DSAMPLE-Wert von 1 ergibt.
In einem nächsten Schritt werden die "Merkmale erster Ordnung" in sogenannte Merkmalskarten eingetragen.
Bei dem Implementierungsbeispiel werden die so erhaltenen "Merkmale erster Ordnung" also in vier (Anzahl Cliquenvektoren) Merkmalskarten eingetragen, die jeweils die Größe 20 × 15 (Anzahl Blöcke = Anzahl Merkmale pro Cliquenvektor) besitzen.
Im folgenden werden die "Merkmalskarten erster Ordnung" mit T_n(x,y) bezeichnet, wobei n die Werte 1 bis 4, x die Werte 1 bis 20 und y die Werte 1 bis 15 annehmen. So bezeichnet beispielsweise T_2(3, 4) das "Merkmal erster Ordnung", für den dritten Block von links in der vierten Zeile für den Cliquenvektor c2. Das Merkmal T_2(3, 4) gibt in diesem Beispiel die Aktivität des Blocks an der Position (3, 4) entlang einer senkrechten Richtung an.
In einem weiteren Schritt werden aus den "Merkmalskarten erster Ordnung" die "Merkmalskarten der zweiten Ordnung" bestimmt.
Zur Bestimmung einer "Merkmalskarte zweiter Ordnung" M_i wird jeweils eine "Merkmalskarte erster Ordnune" T_i mit einer weiteren "Merkmalskarte erster Ordnung" T_j verrechnet. Die Verrechnung wird dabei mit einer Merkmalskarte T_j vorgenommen, deren Cliquenvektor cj senkrecht zum Cliquenvektor ci der "Merkmalskarte erster Ordnung" steht.
Im Beispiel stehen jeweils c1 und c2 bzw. c3 und c4 senkrecht aufeinander. Die Art der Verrechnung wird durch zwei Parameter FAKTOR und SCHWELLE festgelegt und erfolgt blockweise wie nachstehend beschrieben. Zuerst werden die "Merkmalskarten zweiter Ordnung" folgendermaßen bestimmt:
M_1 (x,y) = T_1 (x,y) - FAKTOR.T_2 (x,y),
M_2 (x,y) = T_2 (x,y) - FAKTOR.T_1 (x,y),
M_3 (x,y) = T_3 (x,y) - FAKTOR.T_4 (x,y),
M_4 (x,y) = T_4 (x,y) - FAKTOR.T_3 (x,y).
In einem nächsten Schritt wird der Schwellenwert festgelegt, der von der jeweiligen Anwendung abhängt. Dabei ist der Schwellenwert im wesentlichen von der gewählten Blockgröße und der Grauwertauflösung des Originalbildes beeinflusst. In diesem Schritt werden alle Einträge in allen Merkmalskarten zu Null gesetzt, falls sie kleiner als eben dieser Schwellenwert sind.
Typische Werte für den Faktor liegen dabei im Bereich 1,5 . . . 2,5. Danach werden die Merkmalskarten sortiert. Dies geschieht derart, dass für jede Merkmalskarte die Anzahl der von Null verschiedenen Einträge gezählt wird und die Merkmalskarten nach dieser Anzahl in absteigender Reihenfolge sortiert werden. Somit erhält die erste der Merkmalskarten in der Liste die meisten von Null verschiedenen Einträge und wird daher als erster Kandidat berücksichtigt.
Danach wird der Schwerpunkt der zu betrachtenden Merkmalskarten (das erste Moment in x- und y-Richtung) bestimmt. Der Schwerpunkt (xs, ys) besitzt dabei reellwertige Koordinaten im Bereich xs = 1 . . . 20, ys = 1 . . . 15 und wird auf ganzzahlige Werte round (xs, ys) gerundet.
Wenn die betrachtete Merkmalskarte an der Stelle round (xs, ys) einem von Null verschiedenen Wert enthält, wird mit dieser Merkmalskarte als aktueller Karte fortgefahren.
Wenn die betrachtete Merkmalskarte anstelle round (xs, ys) hingegen eine Null enthält, wird der Schwerpunkt der nächsten Merkmalskarte von der Liste ermittelt. Es wird dann überprüft, ob diese Karte an der Stelle des Schwerpunktes einen von Null verschiedenen Wert enthält.
Auf diese Weise werden alle Kandidaten der Liste abgearbeitet, bis entweder eine Karte gefunden wurde, die an der Stelle des Schwerpunktes einen von Null verschiedenen Wert enthält oder bis die Liste ohne Erfolg abgearbeitet wurde.
Im letzteren Fall wird das Verfahren beendet, da keine gerichtete Struktur gefunden wurde.
Ansonsten wird aus dem Schwerpunkt (xs, ys) der aktuellen Merkmalskarte durch Skalierung mit der Blockgröße der Mittelpunkt des Barcodes (bezogen auf die Größe des Originalbildes) ermittelt. Für die Merkmalskarte wird durch lineare Regression eine durch den Schwerpunkt (xs, ys) laufende Ausgleichsgerade bestimmt.
Diese Ausgleichsgerade verläuft im wesentlichen senkrecht durch die gerichtete Struktur. Wenn die gerichtete Struktur nun ein Barcode ist, der decodiert werden soll, kann diese Gerade als virtuelle Scanlinie verwendet werden, da sie mit hoher Wahrscheinlichkeit den Barcode vollständig schneidet.
Das hier beschriebene Verfahren zur automatischen Erkennung eines Ortes und einer Orientierung einer gerichteten Struktur in einem digitalen Bild zeichnet sich durch die Datenreduktion der im Ursprungsbild enthaltenen Daten aus, sodass ein wesentlich geringerer Rechenaufwand betrieben werden muss, um eine gerichtete Struktur lokalisieren zu können. Dabei ist es vorteilhaft, dass das digitale Bild in aneinanderliegenden Blöcken aufgeteilt wird und diese Blöcke durch Merkmalsfunktionen beschrieben werden, sodass nicht jedes einzelne Pixel im Eingangsbild in die Berechnung eingeht, sondern nur die Anzahl der Texturmerkmale.
Weiterhin ist vorteilhaft, dass die Möglichkeit von Fehllesungen dadurch verringert wird, dass das Verfahren es ermöglicht, sich auf diejenigen Bildbereiche zu konzentrieren, die mit hoher Wahrscheinlichkeit einen Barcode enthalten.

Claims (10)

1. Verfahren zur automatischen Erkennung eines Ortes und einer Orientierung einer gerichteten Struktur in einem digitalen Bild, insbesondere zur Bestimmung des Ortes und der Orientierung eines in dem digitalen Bild enthaltenen Barcodes, dadurch gekennzeichnet, dass das digitale Bild in vorzugsweise zusammenhängende Blöcke unterteilt wird, und für jeden Block mindestens ein Texturmerkmal bestimmt wird, welches ein Maß für die Strukturierung der Blöcke entlang vorgegebener Vorzugsrichtungen darstellt, und aus den Texturmerkmalen Parameter ermittelt werden, die den Ort und die Orientierung einer gerichteten Struktur in dem digitalen Bild angeben.
2. Erkennungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Blöcke eine rechteckige, vorzugsweise quadratische Form aufweisen.
3. Erkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für jeden Bildblock mehrere "erste Texturmerkmale" bestimmt werden, die einen um so höheren Wert annehmen, je größer die Summe der absoluten Beträge der Grauwertdifferenz von Bildpunktpaaren ausfällt, wobei die Bildpunktpaare für jedes "erste Texturmerkmal" aus Bildpunkten gebildet werden, die innerhalb des betrachteten Blocks liegen, deren Verbindungslinie entlang der dem betrachtetem "ersten Texturmerkmal" zugeordneten Vorzugsrichtung liegen, und deren Abstand einem festgelegten Wert oder einen Wert aus einer festgelegten Menge von Werten entspricht.
4. Erkennungsverfahren nach Anspruch 3, dadurch gekennzeichnet, dass nur ein Anteil der Bildpunkte innerhalb des betrachteten Blocks, deren Verbindungslinie entlang der zugeordneten Vorzugsrichtung liegen und deren Bildpunktabstand einem festgelegten Wert oder einem Wert aus einer festgelegten Menge von Werten entsprechen, ausgewertet werden.
5. Erkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Bestimmung des Wertes eines "zweiten Texturmerkmals" eines Blocks die Werte von zwei "ersten Texturmerkmalen" des gleichen Blocks herangezogen werden, die ein Maß für die Strukturierung des Blockes entlang zweier im wesentlichen senkrecht zueinander stehenden Vorzugsrichtungen angeben.
6. Erkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die berechneten "ersten Texturmerkmale" ausgewertet werden.
7. Erkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Auswertung der Texturmerkmale zunächst diejenige Vorzugsrichtung ausgewählt wird, deren zugehörige Texturmerkmale sich am besten mit der Existenz einer gerichteten Struktur im Bild erkennen lässt und bei dem daraufhin nur diejenigen Texturmerkmale, die zu der ausgewählten Vorzugsrichtung gehören, zur Bestimmung der Parameter, die die Wahrscheinlichkeit für die Existenz einer gerichteten Struktur und/oder den Ort einer gerichteten Struktur und/oder die Lage einer gerichteten Struktur im Digitalbild angeben, herangezogen werden.
8. Erkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bild in überlappende Bereiche eingeteilt wird.
9. Erkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Einstellung der Detektionsempfindlichkeit ein Schwellenwert bei der Auswertung der Texturmerkmale festgelegt wird.
10. Erkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Parameter eine Wahrscheinlichkeit für die Existenz einer gerichteten Struktur in dem digitalen Bild angeben.
DE10040614A 2000-08-16 2000-08-16 Verfahren zur automatischen Erkennung einer gerichteten Struktur Withdrawn DE10040614A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10040614A DE10040614A1 (de) 2000-08-16 2000-08-16 Verfahren zur automatischen Erkennung einer gerichteten Struktur
AU2001283792A AU2001283792A1 (en) 2000-08-16 2001-08-13 Method for automatically identifying a directed structure
DE10193420T DE10193420D2 (de) 2000-08-16 2001-08-13 Verfahren zur automatischen Erkennung einer gerichteten Struktur
PCT/DE2001/002993 WO2002015118A1 (de) 2000-08-16 2001-08-13 Verfahren zur automatischen erkennung einer gerichteten struktur
EP01962610A EP1312034A1 (de) 2000-08-16 2001-08-13 Verfahren zur automatischen erkennung einer gerichteten struktur

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10040614A DE10040614A1 (de) 2000-08-16 2000-08-16 Verfahren zur automatischen Erkennung einer gerichteten Struktur

Publications (1)

Publication Number Publication Date
DE10040614A1 true DE10040614A1 (de) 2002-02-28

Family

ID=7653010

Family Applications (2)

Application Number Title Priority Date Filing Date
DE10040614A Withdrawn DE10040614A1 (de) 2000-08-16 2000-08-16 Verfahren zur automatischen Erkennung einer gerichteten Struktur
DE10193420T Expired - Lifetime DE10193420D2 (de) 2000-08-16 2001-08-13 Verfahren zur automatischen Erkennung einer gerichteten Struktur

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE10193420T Expired - Lifetime DE10193420D2 (de) 2000-08-16 2001-08-13 Verfahren zur automatischen Erkennung einer gerichteten Struktur

Country Status (4)

Country Link
EP (1) EP1312034A1 (de)
AU (1) AU2001283792A1 (de)
DE (2) DE10040614A1 (de)
WO (1) WO2002015118A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10351861A1 (de) * 2003-11-06 2005-06-09 Deere & Company, Moline Verfahren und Lenksystem zum selbsttätigen Lenken einer landwirtschaftlichen Maschine

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524906A (ja) 2003-06-21 2007-08-30 アプリリス,インコーポレイテッド 生体認証用画像を処理する方法および装置
US7728959B2 (en) 2003-06-21 2010-06-01 Aprilis, Inc. Acquisition of high resolution biometric images
US7734729B2 (en) 2003-12-31 2010-06-08 Amazon Technologies, Inc. System and method for obtaining information relating to an item of commerce using a portable imaging device
US8631089B1 (en) 2010-12-14 2014-01-14 Brilliance Publishing, Inc. Previewing audio data associated with an item

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5329105A (en) * 1992-08-10 1994-07-12 United Parcel Service Of America, Inc. Method and apparatus for determining the width of elements of bar code symbols
WO1997046965A2 (en) * 1996-06-03 1997-12-11 Accu-Sort Systems, Inc. High speed image acquisition system and method
US5974200A (en) * 1997-03-20 1999-10-26 Matsushita Electric Industrial Company, Ltd. Method of locating a machine readable two dimensional barcode within an image
DE19960555A1 (de) * 1998-12-16 2000-06-21 Matsushita Electric Ind Co Ltd Verfahren zum Auffinden und Lesen eines zweidimensionalen Strichcodes

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0687270B2 (ja) * 1992-09-16 1994-11-02 インターナショナル・ビジネス・マシーンズ・コーポレイション 線分の方向検出装置及びその方法
US6327395B1 (en) * 1996-12-20 2001-12-04 Xerox Parc Glyph address carpet methods and apparatus for providing location information in a multidimensional address space
ATE203342T1 (de) * 1997-11-17 2001-08-15 Datalogic Spa Verfahren zur lokalisierung von farbbereichen oder von bereichen mit grossen helligkeitsänderungen in einem bild
EP0996079B1 (de) * 1998-10-23 2001-07-18 Datalogic S.P.A. Verfahren zur Detektion von Coden in zweidimensionalen Bildern

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5329105A (en) * 1992-08-10 1994-07-12 United Parcel Service Of America, Inc. Method and apparatus for determining the width of elements of bar code symbols
WO1997046965A2 (en) * 1996-06-03 1997-12-11 Accu-Sort Systems, Inc. High speed image acquisition system and method
US5974200A (en) * 1997-03-20 1999-10-26 Matsushita Electric Industrial Company, Ltd. Method of locating a machine readable two dimensional barcode within an image
DE19960555A1 (de) * 1998-12-16 2000-06-21 Matsushita Electric Ind Co Ltd Verfahren zum Auffinden und Lesen eines zweidimensionalen Strichcodes

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10351861A1 (de) * 2003-11-06 2005-06-09 Deere & Company, Moline Verfahren und Lenksystem zum selbsttätigen Lenken einer landwirtschaftlichen Maschine
US7400957B2 (en) 2003-11-06 2008-07-15 Deere & Company Process and steering system for the automatic steering of an agricultural vehicle

Also Published As

Publication number Publication date
WO2002015118A1 (de) 2002-02-21
DE10193420D2 (de) 2003-07-03
EP1312034A1 (de) 2003-05-21
AU2001283792A1 (en) 2002-02-25

Similar Documents

Publication Publication Date Title
DE69215463T2 (de) System zur Dokumentenausrichtung in der automatisierten Verarbeitung von grossen Poststücke und dergleichen
EP0993651B1 (de) Messmarke und verfahren zur erkennung von messmarken sowie verfahren zur objektvermessung
DE69624614T2 (de) Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung
DE69515481T2 (de) Verfahren und Vorrichtung zur Dekodierung eines zweidimensionalen Symboles im Raumbereich
DE69230631T2 (de) Verfahren zum Vergleichen von Wortgestalten
DE69604481T2 (de) Verfahren und gerät zum trennen des vordergrunds und hintergrunds in textenthaltenden bildern
DE3879254T2 (de) Unterscheidungsvorrichtung für handgeschriebene und maschinengedruckte Buchstaben.
DE69230633T2 (de) Verfahren zur Ermittlung von Wortformen zum folgenden Vergleich
DE69129520T2 (de) Verbessertes Segmentierungsverfahren für das maschinelle Lesen von handgeschriebener Information
DE3875451T2 (de) Verfahren zum optischen lesen von strichcodes.
DE69131394T2 (de) Maschinenlesbares Zeichen mit Mehrfachauflösung
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE3923449A1 (de) Verfahren zum bestimmen von kanten in bildern
DE146351T1 (de) Vorlageverarbeitungseinrichtung und -verfahren.
EP2028605A1 (de) Detektionsverfahren für symmetrische Muster
DE69623564T2 (de) Gerät zur Extraktion von Fingerabdruckmerkmalen
EP0402868B1 (de) Verfahren zur Erkennung von vorab lokalisierten, in digitalen Grauwertbildern vorliegenden Zeichen, insbesondere zum Erkennen von in Metalloberflächen eingeschlagenen Zeichen
DE3718620C2 (de)
DE69813416T2 (de) Vorrichtungen zur Linienrichtungsbestimmung, Bildschrägeerfassung und Bildschrägekorrektur.
DE69728469T2 (de) Gerät und Verfahren zur Ermittlung der Zeichenlinie mittels vereinfachter Projektionsinformation; Zeichenerkennungsgerät und Verfahren
DE69427735T2 (de) Zeichenerkennungsgerät
DE69205811T2 (de) Verfahren zur Bildanalyse.
DE10040614A1 (de) Verfahren zur automatischen Erkennung einer gerichteten Struktur
DE10302634B4 (de) Verfahren und Vorrichtung zur Identifikation und Kompensation einer perspektivischen Verzerrung
DE102018209032A1 (de) Vorrichtung und Verfahren zum automatisierten Ermitteln der Position des Barcodes eines Reifens oder Reifenrohlings sowie ein entsprechendes Computerprogramm, Computerprogrammprodukt und ein computerlesbarer Datenträger

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8127 New person/name/address of the applicant

Owner name: GAVITEC AG, 52146 WUERSELEN, DE

8143 Lapsed due to claiming internal priority