DE4102587A1 - Verfahren und einheit zur binaeren bildverarbeitung sowie verfahren und einheit zur zeichenerkennung - Google Patents

Verfahren und einheit zur binaeren bildverarbeitung sowie verfahren und einheit zur zeichenerkennung

Info

Publication number
DE4102587A1
DE4102587A1 DE4102587A DE4102587A DE4102587A1 DE 4102587 A1 DE4102587 A1 DE 4102587A1 DE 4102587 A DE4102587 A DE 4102587A DE 4102587 A DE4102587 A DE 4102587A DE 4102587 A1 DE4102587 A1 DE 4102587A1
Authority
DE
Germany
Prior art keywords
image
character
characters
binary
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE4102587A
Other languages
English (en)
Other versions
DE4102587C2 (de
Inventor
Tadaaki Kitamura
Masao Takatoo
Norio Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019062A external-priority patent/JPH03225489A/ja
Priority claimed from JP2045566A external-priority patent/JPH03250280A/ja
Priority claimed from JP2067114A external-priority patent/JP2960468B2/ja
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of DE4102587A1 publication Critical patent/DE4102587A1/de
Application granted granted Critical
Publication of DE4102587C2 publication Critical patent/DE4102587C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • G06V30/1478Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/158Segmentation of character regions using character size, text spacings or pitch estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/16Image preprocessing
    • G06V30/162Quantising the image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Description

Die Erfindung betrifft Bildverarbeitung, insbesondere ein Verfahren und eine Einheit zum binären Verarbeiten, die auf Bilder mit einem komplexen Hintergrund oder ungleicher Hel­ ligkeit anwendbar sind. Die Erfindung betrifft auch ein Ver­ fahren und eine Einheit zur Zeichenerkennung, die dazu ge­ eignet sind, verzerrte Zeichen zu erkennen und jedes Zeichen in einem eingegebenen Zeichenstringmuster in einer Zeichen­ erkennungseinheit abzutrennen, in die Zeichen und derglei­ chen eingegeben werden, und die die Eingabe erkennt.
Bei der Zeichenerkennung mit Hilfe einer Bildverarbeitungs­ einheit ist es am üblichsten, daß mit einer Fernsehkamera oder dergleichen aufgenommene Bilddaten in binäre Daten mit "0" und "1" abhängig von einem vorgegebenen Schwellwert ge­ wandelt werden und dann die Binärdaten verarbeitet werden. Zum Beispiel werden Zeichen mit dem binären Pegel "1" und der Hintergrund mit dem binären Pegel "0" gekennzeichnet. Die Daten mit dem Pegel "1" werden verarbeitet, um die Zei­ chen zu erkennen.
Wenn ein relativ klares Bild zu erkennen ist, wie dies dann der Fall ist, wenn Zeichen, die mit schwarzer Farbe auf weißes Papier geschrieben sind, zu erkennen sind, ist es möglich, den oben genannten Schwellwert leicht im voraus zu bestimmen (z. B. dadurch, daß die mittlere Dichte als Schwellwert gesetzt wird). Um weiteren schwierigen Anwendun­ gen gerecht zu werden, kann jedoch durch die oben beschrie­ bene einfache binäre Verarbeitung in vielen Fällen keine ausreichend zufriedenstellende Funktion erhalten werden. Im folgenden sind verschiedene Beispiele für komplexe Anwendung angegeben.
  • 1) Gewinnen von Zeichen von einer gekrümmten Pappschachtel mit Mustern
  • 2) Gewinnen von Zeichen von einem Plakat im Freien
  • 3) Gewinnen von Zeichen von einem bedruckten Substrat
Es ist nicht möglich, von den vorstehend beschriebenen Ge­ genständen Zeichen mit Hilfe eines einfachen binären Verar­ beitungsverfahrens zu gewinnen, da der Hintergrund der Zei­ chen komplex ist und extreme Schwankungen in der Helligkeit der Gegenstände bestehen. Es ist daher erforderlich, ein Binärverfahren anzugeben, mit dem es möglich ist, Zeichen von Gegenständen wie den oben beschriebenen in zufrieden­ stellender Weise zu lesen. Als ein herkömmliches Beispiel für ein solches Verfahren wurde eines vorgeschlagen, wie es in einem Artikel von Ohtani unter dem Titel "An Investiga­ tion of a Method of Extracting Characters from a Scenary Image" in Lecture Theses for the National Meeting of Information Processing Society of Japan, März 1986 beschrie­ ben ist.
Wie in den Fig. 2a bis 2c dargestellt, wird ein Bildinhalt eines Bildes 140 mit variabler Dichte, wie es von einer Fernsehkamera oder dergleichen eingegeben wird, in mehrere Unterblöcke 141 unterteilt, und ein optimaler binärer Schwellwert Rÿ wird in jedem der Unterblöcke 141 ermittelt, wie in Fig. 2b dargestellt. In diesem Fall wird der Schwell­ wert Rÿ zur Klassifizierung in zwei Klassen zum Aufteilen jedes Bildes in eine weiße Klasse und eine schwarze Klasse in jedem der Unterblöcke 141 verwendet. Der Schwellwert ist der Wert, bei dem der Unterschied zwischen den beiden Klas­ sen maximal ist. Darüber hinaus werden zum Aufrechterhalten der Kontinuität zwischen den Unterblöcken 141 Bildelemente mit Hilfe der jeweiligen Schwellwerte Rÿ interpoliert, wie in Fig. 2c dargestellt. Dadurch wird ein Schwellwert Rx,y erhalten. Es wird also ein Schwellwert Rx,y für jedes Bild­ element bestimmt, um dadurch das eingegebene Bild in Binär­ datenform darzustellen.
Beim vorstehend beschriebenen Stand der Technik gibt es Probleme. Im vorigen Fall wurde ein Dichtehistogramm verwen­ det, um den Schwellwert Rÿ in jedem Unterblock zu erhalten (d. h. die Frequenz des Dichtepegels wurde in jedem Unter­ block erhalten) und Bilddaten zweiter Ordnung werden in Bilddaten erster Ordnung gewandelt. Positionsinformation oder Helligkeit wird also nicht berücksichtigt, so daß es mit diesem Verfahren nicht möglich ist, einen optimalen Schwellwert zu bestimmen.
Darüber hinaus ist die Verarbeitungszeit zum Erhalten von Rx,y sehr lange, wodurch es unmöglich ist, Zeichen in Echt­ zeit zu lesen.
Wann ein eingegebenes Bild differenziert wird, erhalten Nichtkantenbereiche beinahe den Wert "0", und Kantenbereiche führen zu einem Bild variabler Dichte mit Werten, die der Intensität der Kanten entsprechen. Wenn ein solches Bild in Binärwerten auszudrücken ist, eignet sich das oben beschrie­ bene Verfahren nicht dazu, optimale Kantenerkennung auszu­ üben. Durch eine herkömmliche Zeichenerkennungseinheit wird, wie durch Fig. 13 veranschaulicht, beim Erhalten eines Zei­ chenstringmusters 41 durch eine Bildaufnahmeeinheit oder dergleichen jedes Zeichen vom anderen durch eine Einzelzei­ chen-Trennschaltung 42 abgetrennt, und jedes Zeichen wird dadurch erkannt, daß es in einer Erkennungsschaltung 43 mit Wörterbuchdaten 44 verglichen wird. Zum Erkennen der Zeichen wird dann, wenn ein Formmuster für die Wörterbuchdaten ver­ wendet wird, die Stärke der Annäherung zwischen den Wörter­ buchdaten und den Zeichendaten erhalten. Die Zeichendaten werden der Kategorie mit dem größten Wert der Annäherung zu­ geordnet (was im allgemeinen als Musteranpassung bezeichnet wird), um das Zeichen zu erhalten. Wenn "Charakteristiken" für mehrere Leerräume und mehrere Punkte eines Zeichens als Wörterbuchdaten gespeichert werden, wird ein Entscheidungs­ baum für diese "Charakteristiken" abgearbeitet, um das Zei­ chen zu erkennen.
Es existieren Verfahren zum Erkennen von Zeichen mit hoher Genauigkeit, wenn der Zeichenstring geneigt ist, wie in Fig. 15 dargestellt. Solche Verfahren sind in JP-A-59-66 783 und JP-A-1-1 56 887 angegeben. Bei diesen Verfahren werden Projektionsmuster eines Zeichenstrings in horizontaler und vertikaler Richtung erhalten, um die angenäherte Neigung Φ des Zeichenstrings zu erhalten. Auf Grundlage dieser Neigung Φ wird die Richtung zum Abtasten des Zeichenstrings allmäh­ lich geändert, und es wird diejenige Neigung Φ des Zeichen­ strings bestimmt, bei der die Änderung einer Anzahl erhalte­ ner Segmente (d. h. die Anzahl von Zeichen, die zur Projek­ tionsverteilung beitragen) und ein Projektionswert am größ­ ten werden.
Wie in Fig. 15 dargestellt, entspricht die mit diesem Ver­ fahren ermittelte Neigung des Zeichenstrings einem von rechts aus verdrehten Winkel beim Betrachten jedes Zeichens. Der Zeichenstring stimmt demgemäß mit dem Wörterbuchmuster überein, wenn er umgekehrt um den Winkel Φ verdreht wird, um den Zeichenstring in den richtigen stehenden Zustand zurück­ zubringen. Ein z. B. von einem Fahrzeugnummernschild aufge­ nommenes Bild weist jedoch z. B. ein Zeichenstringmuster 41 auf, wie es in Fig. 14 dargestellt ist. Dieses Zeichen­ stringmuster 41 entspricht demjenigen von Fig. 13 von unten bei linkem Neigungswinkel betrachtet, wobei sich die hori­ zontale Richtung nicht ändert und die Zeichen so verzerrt sind, daß sie oben nach links abweichen. Wenn die Größe der Verzerrung konstant ist, wird es möglich, die Zeichen zu er­ kennen, wenn Wörterbuchdaten für jedes verzerrte Zeichen vorhanden sind. Jedoch hängt die Verzerrung von der räumli­ chen Anordnung der Kamera zum Aufnehmen des Nummernschilds relativ zu einem Fahrzeug ab. Darüber hinaus hängt die Ver­ zerrung auch vom Ort ab, an dem das Nummernschild am Fahr­ zeug befestigt ist. Dementsprechend unterscheidet sich die Größe der Verzerrung von Fahrzeug zu Fahrzeug, so daß es un­ möglich ist, Wörterbuchdaten für jede individuelle Verzer­ rung vorliegen zu haben. Daher ist es, falls diese verzerr­ ten Zeichen nicht korrigiert werden, nicht möglich, die Zei­ chen genau zu erkennen, da der Wert der Annäherungsgröße in einer Annäherungsberechnungsschaltung 43 niedrig ist, wenn Zeichenanpassung zwischen einem verzerrten Zeichen 44a und einem Wörterbuchmuster versucht wird, wie durch Fig. 14 ver­ anschaulicht. Diese Verzerrung verschwindet auch dann nicht, wenn das gesamte Zeichen um den Neigungswinkel Φ zurückge­ dreht wird, wie dies beim Stand der Technik gemacht wird, weswegen keine genaue Zeichenerkennung erreicht werden kann.
Eine Zeichenerkennungseinheit zum Erkennen gedruckter oder gestempelter Zeichen weist Funktionen auf, wie sie durch Fig. 25 veranschaulicht werden. Das zu erkennende Muster wird durch eine Fernsehkamera 10 oder dergleichen aufgenom­ men, und das erhaltene analoge Signal wird mit Hilfe eines A/D-Wandlers 11 mit sieben oder acht Bits quantisiert. Diese werden durch eine Binärschaltung 18 in binäre Werte gewan­ delt, und das Ergebnis wird in einem Rahmenspeicher 12 abge­ speichert. Aus dem im Rahmenspeicher 12 abgespeicherten Mu­ ster wird jedes Zeichen durch eine Zeichentrennschaltung 30 abgetrennt und mit vorab z. B. in einem Wörterbuchmuster­ speicher 48 abgespeicherten Wörterbuchmustern durch eine Er­ kennungsschaltung 27 verglichen. Dasjenige Muster, das einem Wörterbuchmuster am ähnlichsten ist, wird als Erkennungser­ gebnis ausgegeben.
Wenn die Qualität von Zeichen schlecht ist, können sie in vielen Fällen in der oben beschriebenen binären Verarbei­ tungsstufe in einer solchen Erkennungseinheit im Kontakt miteinander stehen. Um die sich berührenden Zeichen vonein­ ander zu trennen, wird die Zeichentrennschaltung 30 verwen­ det, deren Funktion mit Hilfe der Fig. 26a und 26b veran­ schaulicht wird, und ein (in Fig. 27b) dargestelltes Projek­ tionsmuster wird in der Richtung rechtwinklig zur Linie des in Fig. 26a dargestellten Zeichenstrings erhalten. Die Zei­ chen werden an einer Stelle voneinander getrennt, die das schwächste Projektionsmuster aufweist, und jedes Zeichen wird erkannt. Bei diesem Verfahren tritt jedoch falsches Trennen von Zeichen häufig auf, und die Erkennungsrate ist demgemäß extrem niedrig.
Verfahren, wie sie in JP-A-61-72 373 und JP-A-63-2 16 188 ange­ geben sind, weisen Verbesserungen zum Verhindern des fälsch­ lichen Trennens von Zeichen auf, was beim oben beschriebenen einfachen Verarbeiten auftrat. Jedoch nutzen beide Verfahren ein Projektionsmuster, und es kommen immer noch Fälle vor, in denen Zeichen an falschen Stellen getrennt werden, wenn sie miteinander verbunden sind, wie in den Fig. 27a und 27b dargestellt.
Da das Projektionsmuster zum Zählen der Anzahl von Bildele­ menten in vertikaler Richtung dient, ist es schwierig zu be­ stimmen, an welchem Ort von "A" der zwei Zeichen in Fig. 27a diese zu trennen sind, da die Anzahl von Bildelementen in vertikaler Richtung im Bereich "A" im Fall von Fig. 27a überall dieselbe ist. Darüber hinaus ist es im Fall von Fig. 27b schwierig, zwischen dem Projektionsmuster von (Bindestrich) (Bereich "A") und dem Projektionsmuster des oberen Bereichs von "7" (Bereich "B") zu unterscheiden, so daß die Stelle zum Trennen der zwei Zeichen falsch gewählt werden kann. Darüber hinaus wurden keine Überlegungen für ein Verfahren zum Lösen des Falles angestellt, bei dem die Größen von Zeichen und die Abstände zwischen ihnen unter­ schiedlich sind. (Die Abstände zwischen den Zeichen werden als konstant angesehen.)
Eine Aufgabe der Erfindung ist es, ein Verfahren und eine Einheit zur binären Bildverarbeitung in einer Bildverarbei­ tungseinheit anzugeben, die ein klares binäres Bild mit ho­ her Geschwindigkeit selbst dann erzeugen können, wenn das Bild komplexen Hintergrund oder Änderungen in dar Bildhel­ ligkeit aufweist.
Eine weitere Aufgabe der Erfindung ist es, ein Verfahren und eine Einheit zur Zeichenerkennung anzugeben, die verzerrte Zeichen korrigieren können, damit sie mit Wörterbuchdaten verglichen und selbst dann genau erkannt werden können, wenn diese verzerrten Zeichen beim Aufnehmen eines Bildes aus einer schrägen Richtung eingegeben werden.
Eine weitere Aufgabe der Erfindung ist es, ein Verfahren und eine Einheit zur Zeichenerkennung anzugeben, die auf zufrie­ denstellende Weise Zeichen trennen und einzelne Zeichen er­ kennen können, selbst wenn ein eingegebener Zeichenstring Zeichen enthält, die ein benachbartes Zeichen berühren.
Die grundsätzliche erfindungsgemäße Verarbeitung besteht in einem Verfahren, bei dem ein Bild mit Hilfe von Binärdaten so ausgedrückt wird, daß die Dichte von Flächen für andere Zwecke als Bilddifferenzierung mit "0" bezeichnet wird. Es wird zunächst ein Objekt für diese Verarbeitung besprochen, und danach wird ein Verfahren zum Ausdrücken eines normalen Bildes variabler Dichte in Binärdaten erläutert.
Zum Vereinfachen der Beschreibung eines eingegebenen Bildes ist ein in Fig. 1a dargestelltes Bild erster Ordnung zwi­ schen zwei Punkten A und A′ in anderer Weise in Fig. 1b dar­ gestellt. Fig. 1c zeigt ein Bild, das das Ergebnis eines Differenzierens des Bildes von Fig. 1b ist (Absolutwerte der differenzierten Werte sind dargestellt). Für Nichtkantenbe­ reiche ist beinahe der Wert "0" dargestellt. Dichtewerte, die der Dichte der Kanten entsprechen, sind nur in den Kan­ tenbereichen eingezeichnet. Wenn in diesem Fall Änderungen in der Helligkeit bestehen, unterscheiden sich die Intensi­ täten der Kanten abhängig vom Ort. Es ist daher nicht mög­ lich, alle Kanten in zufriedenstellender Weise zu erkennen, selbst wenn ein fester Schwellwert vorgegeben wurde. Wenn z. B. der Schwellwert zu hoch ist, ist es nicht möglich, Bereiche mit kleiner Kantenintensität zu erkennen. Wenn an­ dererseits die Kantenintensität zu niedrig ist, erscheinen Bereiche mit hoher Kantenintensität als sehr dick. Daher wird gemäß der Erfindung davon ausgegangen, daß eine Kurve, die durch die mittlere Dichte der zu erkennenden Bereiche läuft, ein idealer Schwellwert ist. Eine Einheit zum Erzeu­ gen dieser Oberfläche wird angegeben. Die Erfindung ist durch das Folgende gekennzeichnet. Helligkeit (Dichte) eines in Binärdaten auszudrückenden Bildes wird auf 1/n gesetzt, und der Spitzendichtewert des Bildes mit 1/n zeigt einen Mittelwert der Dichten der Kanten (wenn n 2 ist). Expan­ sionsverarbeitung wird mit dem Bild mit dem Wert 1/n ausge­ führt, und weiterhin wird eine Glättungsverarbeitung mit dem expandierten Bild ausgeführt, wodurch ein Schwellwertbild erhalten wird. Dann wird die Differenz zwischen diesem Schwellwertbild und dem in Binärdaten auszudrückenden Bild ermittelt, wodurch ein zufriedenstellendes Binärbild erhal­ ten wird.
Die Erfindung ist weiterhin durch das Folgende gekennzeich­ net. Beim Zeichenerkennungsverfahren zum Erkennen von Zei­ chen in einem aufgenommenen Bild mit Hilfe von Wörterbuch­ daten wird ein Verzerrungswinkel in bezug auf die horizonta­ le Richtung ermittelt, unter dem die Breiten von Zeichen, die durch Aufnehmen eines Bildes unter einem schrägen Winkel erhalten wurden, sich als minimal herausstellen. Für diesen ermittelten Verzerrungswinkel werden Horizontalrichtungskom­ ponenten der verzerrten Zeichen oder der Wörterbuchdaten korrigiert, um die Zeichen zu erkennen. Durch diese Anord­ nung wird es möglich, Zeichen selbst dann mit hoher Erken­ nungsrate zu erkennen, wenn die Zeichen abhängig von der Richtung der Aufnahme des Bildes verzerrt sind. Darüber hinaus wird auch ein Verzerrungswinkel in bezug auf die ver­ tikale Richtung erhalten, für den die Höhen der verzerrten Zeichen als minimal ermittelt werden. Vertikale Richtungs­ komponenten der verzerrten Zeichen oder Wörterbuchdaten wer­ den mit dem Verzerrungswinkel korrigiert, um die Zeichen zu erkennen.
Die Erfindung zeichnet sich auch dadurch aus, daß sie einen Rahmenspeicher zum Umwandeln eines Bildaufnahmesignals, das durch horizontales und vertikales Abtasten eines zu erken­ nenden Zeichenstrings erhalten wird, in binäre Werte, zum Unterteilen der Binärwerte in Bildelemente und zum Speichern des Ergebnisses aufweist, wie sie auch aufweist: eine Adreß­ bestimmungseinheit zum Bestimmen der Adresse des Rahmenspei­ chers und zum Lesen der in diesem gespeicherten Daten durch Abtasten der Daten ausgehend von einem vorgegebenen Ort in vorgegebener Richtung, eine Projektionsmuster-Ermittlungs­ einheit zum Ermitteln der Anzahl von Bildelementen, die die Anzahl von Zeichenstrings der Bilddaten darstellen, die bei jedem Abtasten durch die Adreßbestimmungseinheit gelesen werden, und eine Projektionsbreiten-Ermittlungseinheit zum Erhalten der Anzahl von Abtastlinien oder der Breite von Ab­ tastlinien, für die der Projektionswert des Projektionsmu­ sters nicht "0" ist, eine Verzerrungswinkel-Ermittlungsein­ heit zum Abtasten des Rahmenspeichers durch allmähliches Än­ dern der Richtung der Abtastlinien und zum Erhalten eines Verzerrungswinkels als diejenige Abtastrichtung, in der die erhaltene projizierte Breite minimal wird, eine Einheit zum Herausgreifen jedes Zeichendatenwerts aus dem Zeichenstring, eine Korrektureinheit zum Korrigieren nur der horizontalen Richtungskomponenten oder der vertikalen Richtungskomponen­ ten der Daten für jedes Zeichen oder der Wörterbuchdaten, die einem jeweiligen Zeichen entsprechen, und eine Erken­ nungseinheit zum Vergleichen der korrigierten Zeichendaten oder Wörterbuchdaten mit den nicht korrigierten Wörterbuch­ daten bzw. Zeichendaten, um Zeichenerkennung auszuführen. Statt der binären Daten kann auch variable Dichteinformation verwendet werden, um den kumulativen Wert der Dichte zu er­ mitteln, um Zeichen zu erkennen. Anstatt einen Verzerrungs­ winkel dadurch zu erhalten, daß der Bereich, in dem Zeichen existieren (Zeichenbreite), minimal gemacht wird, kann er auch dadurch bestimmt werden, daß der Bereich, in dem keine Zeichen bestehen, maximal gemacht wird. Im Hinblick auf den Unterschied zwischen den sogenannten "schwarzen Zeichen" und den "weißen Farben", wenn Dichtewerte verwendet werden, be­ deutet "0" im vorstehend Beschriebenen "wenn der kumulative Dichtewert nicht "0" ist", daß der Dichtewert des Hinter­ grunds "0" ist.
Die Erfindung ist weiterhin durch das Folgende gekennzeich­ net. Beim Abtrennen eines Zeichens aus einem Zeichenstring­ muster, das durch Aufnehmen eines Bildes erhalten wurde, wird eine Gewichtsverteilung in solcher Weise erhalten, daß ein aus yc abgetrenntes Bildelement einen größeren Wert um yc herum einnimmt, das die Zentrumshöhe des Zeichenstrings angibt (y-Koordinaten für das Zentrum, x-Koordinaten für die Horizontalrichtung und y-Koordinaten für die vertikale Rich­ tung), ohne ein Projektionsmuster zu nutzen. Der Gewichts­ verteilungswert wird mit einem Schwellwert verglichen, um einen Zeichenblock abzutrennen. Für diesen abgetrennten Zei­ chenblock wird unterschieden, wieviele Zeichen in Berührung miteinander stehen, was unter Nutzung einer Standardzeichen­ breite erfolgt. Auf Grundlage dieser Unterscheidung, oder der Anzahl sich berührender Zeichen, wird die Breite des Zeichenblocks gleichmäßig unterteilt, und Koordinaten der gleichmäßig unterteilten Stücke des Zeichenblocks werden er­ mittelt, und Zeichen werden an den Stellen dieser Koordina­ ten voneinander getrennt. Dadurch wird es möglich, zufrie­ denstellendes Aufteilen von Zeichen in einem Zeichenstring mit sich berührenden Zeichen zu erhalten.
Fig. 1a bis 1f sind Diagramme zum Erläutern der Verarbeitung zum Gewinnen eines Schwellwertbildes gemäß einem Ausfüh­ rungsbeispiel der Erfindung;
Fig. 2a bis 2c sind Diagramme zum Erläutern eines herkömm­ lichen Verfahrens zum Wiedergeben eines eingegebenen Bildes in Binärzahlen;
Fig. 3 ist ein Diagramm zum Erläutern des Funktionsprinzips eines Ortsmaximalwertfilters bei einem Ausführungsbeispiel der Erfindung;
Fig. 4 ist ein Aufbaudiagramm eines Systems gemäß einem Aus­ führungsbeispiel der Erfindung;
Fig. 5a bis 5c sind Diagramme zum Erläutern eines Beispiels für den Fall, daß ein differenziertes Bild Störsignale ent­ hält;
Fig. 6a bis 6e sind Diagramme zum Erläutern eines Ablaufs zum Erzeugen eines Kontrastbildes aus einem eingegebenen Bild mit unterschiedlicher Dichte;
Fig. 7 ist ein Flußdiagramm zum Erläutern eines Verarbei­ tungsablaufs zum Erhalten eines Verzerrungswinkels in einer Zeichenerkennungseinheit gemäß einem Ausführungsbeispiel der Erfindung;
Fig. 6a bis 8c sind Diagramme zum Erläutern eines Projek­ tionsmusters verzerrter Zeichen, die durch Aufnehmen eines Bildes in schräger Richtung erhalten wurden;
Fig. 9 ist ein Diagramm, das die Beziehung zwischen einer Projektionsbreite und einem Abtastwinkel zeigt;
Fig. 10 ist ein Diagramm zum Erläutern des Aufbaus einer Zeichenerkennungseinheit gemäß einem Ausführungsbeispiel der Erfindung;
Fig. 11 ist ein Flußdiagramm für einen Verarbeitungsablauf zum Erhalten eines Minimalwertes einer Projektionsbreite durch Berechnung;
Fig. 12a, 12b, 12c und 12d sind Diagramme zum Erläutern des Falls des Erhaltens eines Minimalswertes einer Projektions­ breite aus drei Winkeln durch Berechnung;
Fig. 13 ist ein Diagramm zum Erläutern einer herkömmlichen Zeichenerkennungseinheit;
Fig. 14 ist ein Diagramm zum Erläutern eines Problems, das auftritt, wenn verzerrte Zeichen in die herkömmlichen Zei­ chenerkennungseinheit eingegeben werden;
Fig. 15 ist eine Darstellung für einen Zeichenstring, wie er durch ein herkömmliches Zeichenerkennungsverfahren erkannt wird;
Fig. 16 ist eine Darstellung einer Zeichenerkennungseinheit gemäß einem anderen Ausführungsbeispiel der Erfindung;
Fig. 17 ist ein Diagramm zum Beschreiben eines verzerrten Zeichens;
Fig. 18 ist eine Darstellung einer Zeichenerkennungseinheit gemäß einem weiteren Ausführungsbeispiel der Erfindung;
Fig. 19 ist eine Darstellung des Aufbaus einer Zeichenerken­ nungseinheit gemäß einem weiteren Ausführungsbeispiel der Erfindung;
Fig. 20 ist ein Flußdiagramm zum Erläutern eines Zeichen­ trennablaufs in einer Zeichentrennschaltung gemäß einem Aus­ führungsbeispiel der Erfindung;
Fig. 21 ist eine Darstellung zum Erläutern eines Rahmenspei­ chers;
Fig. 22a und 22b sind Diagramme zum Erläutern des Konzepts eines Projektionsmusters;
Fig. 23a, 23b und 23c sind Darstellungen für einen Fall, in dem ein Projektionsmuster und eine Gewichtsverteilung ver­ wendet werden,
Fig. 24a und 24b sind Darstellungen zum Erläutern eines Fal­ les, bei dem eine Gewichtsverteilung in einem Zeichenstring gewonnen und abgetrennt wird;
Fig. 25 ist eine Darstellung eines Aufbaus einer Zeichener­ kennungseinheit gemäß einem Ausführungsbeispiel der Erfin­ dung;
Fig. 26a und 26b sind Darstellungen zum Erläutern von Zei­ chentrennung mit Hilfe eines herkömmlichen Projektionsmu­ sters; und
Fig. 27a und 27b sind Darstellungen zum Erläutern eines Problems, wie es auftritt, wenn Zeichentrennung mit Hilfe des herkömmlichen Projektionsmusters ausgeführt wird.
Die Fig. 1a bis 1f veranschaulichen einen Verarbeitungsab­ lauf. Fig. 1a zeigt ein eingegebenes Bild F. Die Information entlang einer Linie A-A′ in diesem Diagramm wird ausge­ drückt, wie dies durch das Signal FA in Fig. 1b dargestellt ist. In dieser Figur ist die Längsrichtung der Ort und die vertikale Achse die Helligkeit (Dichte). Dieses eingegebene Bild wird differenziert (wobei das Ausgangssignal ein Abso­ lutwert ist), wodurch ein Bild G erhalten wird, wie es in Fig. 1C dargestellt ist. In diesem Bild nehmen Nichtkanten­ bereiche beinahe den Wert "0" ein, und Werte, die der Dichte der Kanten entsprechen, sind in den Kantenbereichen einge­ zeichnet. Beim Erzeugen eines binären Schwellwertes für die­ ses Bild, ist es ideal, eine Kurve Tc zu erzeugen, die durch die mittlere Dichte der Intensität (Kontrast) jeder Kante hindurchgeht. Da ein eingegebenes Bild tatsächlich jedoch eine Ebene zweiter Ordnung ist, ist es erforderlich, eine gekrümmte Oberfläche statt einer gekrümmten Linie Tc zu er­ zeugen. Es ist jedoch sehr schwierig, eine gekrümmte Ober­ fläche zu erzeugen. Daher wird eine gekrümmte Linie als Schwellwert erzeugt, die der gekrümmten Linie Tc erster Ord­ nung ähnlich ist.
Genauer gesagt wird ein Bild GH, das eine Dichte von 1/2 derjenigen jedes Bildelementes im differenzierten Bild G entspricht, erzeugt, wie dies in Fig. 1d dargestellt ist. Der Spitzenwert des Kontrasts dieses Bildes GH zeigt einen Zwischenwert in bezug auf den Kontrast des ursprünglichen differenzierten Bildes. Wenn darüber hinaus ein Expansions­ verarbeiten der Dichte mehrfach ausgeführt wird, wird ein Bild GHX erhalten, wie es in Fig. 1e dargestellt ist. Dieses Bild wird weiter geglättet, um ein Bild C zu erhalten, das dem idealen Schwellwert sehr ähnlich ist, wie er in Fig. 1f dargestellt ist. Dann wird das ursprüngliche differenzierte Bild G mit dem erzeugten Schwellwertbild C verglichen, und das Bild wird binär ausgedrückt, indem nur diejenigen Bild­ elemente verwendet werden, für die die Dichte des differen­ zierten Bildes größer ist als diejenige des Schwellwertbil­ des. Dadurch wird ein klares binäres Bild erhalten.
Die oben stehende Expansionsverarbeitung variabler Dichte ist eine solche eines sogenannten Ortsmaximalwertfilters. In der Ebene zweiter Ordnung wird ein Maximalwert aus dichten f1, f2, ..., f9 von 3 × 3 Bildelementen eines eingegebenen Bildes f gewonnen, wie dies in Fig. 3 dargestellt ist, und dieser Wert wird als F gemäß einer Verarbeitung ausgegeben, die durch folgende Gleichung gegeben ist.
F (i, j) = max[f(i+u, j+v)]
(u, v) = -1, 0, +1
Ein Glättungsverarbeitungsverfahren zum Ausgeben eines Mit­ telwerts der Dichte der 3 × 3 Bildelemente ist ein Beispiel.
Fig. 4 zeigt ein Beispiel des Aufbaus einer Einheit der Er­ findung. Er verfügt über eine Fernsehkamera 10, einen A/D- Wandler 11, einen Bildspeicher 12, eine Differenzierschal­ tung 13, eine Bildskalierschaltung 14, eine Ortsmaximalwert­ filterschaltung 15, eine Glättungsschaltung 16, eine Zwi­ schenbildverarbeitungsschaltung 17, eine Binärschaltung 18, eine CPU 19, einen D/A-Wandler 20 und einen Monitor 21.
Wenn beim oben beschriebenen Aufbau ein Bild mit der Fern­ sehkamera 10 oder dergleichen aufgenommen wird, wird das Bildsignal durch den A/D-Wandler 11 in dichte Daten wie z. B. 128 Gradationen umgewandelt und im Bildspeicher 12 ge­ speichert. Der Bildspeicher 12 weist k (G1 bis Gk) Dichte­ speicher mit z. B. 256 × 256 Bildelementen auf, und er weist auch 1 (B1 bis B1) Binärbildspeicher auf, falls erforder­ lich.
Im folgenden wird der Verarbeitungsablauf im Detail be­ schrieben, wobei angenommen wird, daß ein Bild im Bildspei­ cher G1 gespeichert wurde.
Zunächst wird das Bild in G1 durch die Differenzierschaltung 13 differenziert, und das Ergebnis wird im Bildspeicher G2 abgespeichert. Das Bild ist ein binär zu verarbeitendes Ge­ genstandsbild. Durch die Bildskalierschaltung 14 wird ein Bild der Helligkeit 1/n derjenigen des Bildes in G2 erzeugt und in G3 abgespeichert. Für gewöhnlich nimmt n den Wert 2 an, jedoch kann es auch den Wert 3 oder 4 einnehmen, um an die Qualität des Gegenstandsbildes angepaßt zu sein (es kann auch ein Dezimalbruch wie z. B. 1,5 verwendet werden). Mit Hilfe der Ortsmaximalwertfilterschaltung 15 wird Expansions­ verarbeitung der Dichte am Bild in G3 ausgeführt, und das Ergebnis wird in G4 abgespeichert. Die Ortsmaximalwertfil­ terschaltung nimmt gewöhnlich einen Maximalwert der Dichte von 3×3 Bildelementen an. Daher ist das Expansionsausmaß klein, wenn nur eine Verarbeitung ausgeführt wird. Dement­ sprechend wird die Expansionsverarbeitung des Bildes in G4 mehrfach wiederholt, und das Ergebnis wird wiederum in G4 abgespeichert. Die Anzahl der Wiederholungen der Verarbei­ tung wird so festgelegt, daß sich die Breite einer Kante er­ höht (d. h. etwa fünf Mal). Darüber hinaus wird das expan­ dierte Bild in G4 durch die Glättungsschaltung 16 geglättet, um eine geglättete Kurve zu erhalten. Die Glättungsverarbei­ tung wird ebenfalls mehrere Male wiederholt, und das Ergeb­ nis wird dann in G5 abgespeichert.
Das Bild in G5 ist ein Schwellwertbild. Die Dichte dieses Bildes wird für jedes Bildelement mit der Dichte des ur­ sprünglichen differenzierten Bildes in G2 verglichen. Das Ergebnis wird dann in binären Daten ausgedrückt. Eine de­ taillierte Verarbeitung besteht darin, daß, wie durch Fig. 1g veranschaulicht, die Dichte des Schwellwertbildes G5 (C in Fig. 1f) durch die Zwischenbildverarbeitungsschaltung 17 von der Dichte des differenzierten Bildes G2 (G in Fig. 1c) abgezogen wird. Das in diesem Fall erhaltene Bild wird die Information des differenzierten Bildes mit höherer Dich­ te, als sie derjenigen des Schwellwertbildes entspricht. Um Störsignale aus diesem Bild entfernen zu können, wird ein gewisser Schwellwert th eingestellt (etwa zwei bis drei Gra­ dationen), und die Bildinformation wird binär durch die Bi­ närschaltung 18 verarbeitet. Durch die vorstehende Verarbei­ tung kann ein Binärbild mit einem Zwischenwert der Hellig­ keit als Schwellwert erhalten werden.
Es ist jedoch nicht angemessen, nur die vorstehend beschrie­ bene eine Folge von Verarbeitungen auszuführen, wenn helle Bereiche in Störsignalen des differenzierten Bildes vorhan­ den sind, wie in Fig. 5a dargestellt. Wenn ein Bild mit 1/2 der Helligkeit desjenigen von Fig. 5a erzeugt wird, wie es in Fig. 5b dargestellt ist, und dieses Bild mit Hilfe des Ortsmaximalwertfilters expandiert wird, wird ein Schwell­ wertbild erhalten, das aufgrund der Störsignale hohen Pegel aufweist, wie dies in Fig. 5c dargestellt ist. Infolgedessen wird es unmöglich, die Randbereiche der Störsignale zu er­ kennen. Um dieses Problem zu lösen, wird nach dem Erzeugen des Bildes mit 1/2 der Helligkeit (dies kann 1/n sein) mehr­ fach geglättet, um Störsignale zu verringern, und das Ergeb­ nis wird mit Hilfe des Ortsmaximalwertfilters expandiert. Ein ähnlicher Ablauf wird wiederholt. Durch diese Ausführung wird es möglich, Änderungen des Schwellwerts aufgrund von Störsignalen zu verhindern.
Wenn nur geringe Störungen vorliegen, ist es möglich, Dich­ tewerte zufriedenstellend zu gewinnen, ohne daß die vor­ stehend beschriebene Glättungsverarbeitung ausgeführt wird. Das Verwenden oder Nichtverwenden der Glättungsverarbeitung kann in Abhängigkeit der erforderlichen Verarbeitungszeit bestimmt werden. Um Störsignale auszuschließen, kann der­ selbe Effekt auch erhalten werden, indem die Skalierverar­ beitung von 1/n ausgeführt wird, nachdem ein Bild für Binär­ verarbeitung (ein differenziertes Bild in diesem Fall) mehr­ fach geglättet wurde.
Wie vorstehend beschrieben, bestehen mehrere Verfahrensmög­ lichkeiten, wie die des Bestimmens des Wertes von n, des Glättens eines Bildes, nachdem das Bild mit der Helligkeit 1/n oder das differenzierte Bild erzeugt wurde, oder des Er­ zeugens eines Bildes mit der Helligkeit 1/n, nachdem das Bild geglättet wurde.
Zum Auswählen eines Verfahrens, das für einen gewissen Ge­ genstand am geeignetsten ist, bestehen folgende Auswahlver­ fahren:
  • 1) Die Ergebnisse aller vorausgehenden Verarbeitungen wer­ den dargestellt, und der Nutzer wählt diejenige der voraus­ gegangenen Verarbeitungen, die er als am geeignetsten an­ sieht.
  • 2) Die Ergebnisse der vorausgegangenen Verarbeitungen wer­ den Zeichenerkennung unterworfen, und es wird die Verarbei­ tung mit der höchsten Erkennungsrate ausgewählt.
  • 3) Der Nutzer bestimmt im voraus auszuwertende Bereiche, und es wird diejenige vorausgegangene Verarbeitung ausge­ wählt, die das der voreingestellten Information ähnlichste Ergebnis zeigt.
Das vorliegende Ausführungsbeispiel ist ein Verfahren, das einen binären Schwellwert zufriedenstellend dann festlegen kann, wenn die zu gewinnenden Bildelemente eine gewisse Dichte aufweisen und der Rest der Bildelemente beinahe den Wert "0" hat (dies wird im folgenden als Halbkontrast-Binär­ verfahren bezeichnet). Dieses Verfahren kann demgemäß nicht auf ein solches allgemeines Bild angewendet werden, das va­ riable Dichten aufweist, bei dem andere Bereiche als die zu gewinnenden ebenfalls gewisse Dichtewerte aufweisen. Es wird nun ein anderes Ausführungsbeispiel der Erfindung beschrie­ ben, das auch in diesem Fall angewendet werden kann. Die Fig. 6a und 6b zeigen Gegenstände mit Zeichen eines allge­ meinen Bildes mit unterschiedlicher Dichte.
Um ein allgemeines Bild mit unterschiedlicher Dichte in Bi­ närwerten mit Hilfe eines Verfahrens auszudrücken, wie es für das vorige Ausführungsbeispiel erläutert wurde, kann die Dichte des Hintergrunds der Zeichen in den Wert "0" gewan­ delt werden. Da als Ergebnis dieser Verarbeitung nur der Kontrast der Zeichen verbleibt, kann dann das oben beschrie­ bene Halbkontrastverfahren verwendet werden. Zur Wandlung wird ein Verfahren benutzt, wie es in JP-A-63-1 53 682 be­ schrieben ist. Bei diesem Verfahren wird aus dem eingegebe­ nen Bild ein Hintergrundbild erzeugt, und dieses wird vom eingegebenen Bild abgezogen, wodurch ein Bild mit der zu ge­ winnenden Dichteinformation erzeugt wird (z. B. ein Zeichen­ kontrastbild im Fall eines Zeichenbildes). Als Ergebnis ist es möglich, ein Bild zu erzeugen, in dem der Zeichenbereich eine Dichte aufweist, die dem Kontrast entspricht, und in dem der ganze andere Hintergrund "0" aufweist. Dadurch ist es möglich, ein Bild zu erzeugen, das dem oben beschriebenen differenzierten Bild ähnlich ist, so daß das erfindungsge­ mäße Binärverfahren anwendbar wird. Die Verarbeitung zum Ausschließen des Hintergrunds wird im folgenden kurz erläu­ tert. Fig. 6a zeigt ein eingegebenes Bild. Die Dichteinfor­ mation entlang der Linie A-A′ in Fig. 6a ist in Fig. 6b dar­ gestellt. Das letztere Diagramm zeigt den Fall des Gewinnens schwarzer Zeichen. Um ein Hintergrundbild zu erzeugen, wird das oben genannte Ortsmaximalwertfilter verwendet, um eine Expansionsverarbeitung der Helligkeit mehrfach auszuführen. Dadurch werden die vertieften Bereiche der Zeichen durch die umgebende Helligkeit eingeebnet, wie in Fig. 6c dargestellt. Dieses Bild wird mehrfach durch ein Ortsminimalwertfilter komprimiert, was in derselben Weise wie die Expansionsverar­ beitung erfolgt, wodurch das in Fig. 6c dargestellte Bild erhalten wird. Die Verarbeitung durch das Ortsminimalwert­ filter ist eine solche mit umgekehrter Funktion, als sie das Ortsmaximalwertfilter aufweist. Sie erzeugt ein Ausgangssig­ nal F(x, y), das dem Minimalwert der Dichte f(x, y) eines Ortsbereichs entspricht. Dies wird durch die folgende Glei­ chung ausgedrückt:
F (i, j) = min[f(i+u, j+v)]
(u, v) = -1, 0, +1
Nach dem Erzeugen des Hintergrundbildes werden Helligkeits­ unterschiede zwischen dem ursprünglichen eingegebenen Bild und dem Hintergrundbild ermittelt, und es wird ein Kontrast­ bild mit der Hintergrunddichte "0" erzeugt, wie in Fig. 6e dargestellt. Dieses Verfahren wird als Hintergrundabzugsver­ fahren bezeichnet.
In diesem Bild sind Helligkeitsunterschiede des Hintergrun­ des aufgehoben, jedoch können Kontrastunterschiede zwischen Zeichen nicht korrigiert werden. Daher kann das Bild nicht mit Hilfe eines feststehenden Schwellwerts in Binärdaten um­ gewandelt werden. Wenn jedoch das oben beschriebene Halbkon­ trast-Binärverfahren auf dieses Bild angewendet wird, kann ein zufriedenstellendes Binärbild erhalten werden.
Die vorstehende Beschreibung betrifft das Bearbeiten schwar­ zer Zeichen. Im Fall weißer Zeichen wird das oben beschrie­ bene Hintergrundabzugsverfahren angewendet, nachdem eine Um­ kehrverarbeitung des eingegebenen Bildes ausgeführt wurde, oder projizierte Zeichenbereiche werden durch Filter ge­ löscht, in Reihenfolge des Ortsminimalwertfilters und des Ortsmaximalwertfilters. Infolgedessen kann ein ähnlicher Effekt erzielt werden.
Wenn das Hintergrundabzugsverfahren verwendet werden soll, kann die Verarbeitung vereinfacht werden, wenn die Ortsmini­ malwertfilterschaltung dem Aufbau von Fig. 4 hinzugefügt wird.
Es wird nun unter Bezugnahme auf die Fig. 7 bis 12d ein Aus­ führungsbeispiel der Erfindung beschrieben, das zufrieden­ stellendes Erkennen von Zeichen ermöglicht, die unter einem schrägen Winkel aufgenommen wurden und verzerrt sind.
Die Fig. 8a und 8b sind Darstellungen zum Erläutern, wie ein Verzerrungswinkel eines Zeichenstrings erhalten werden kann. Es sei angenommen, daß der Verzerrungswinkel des verzerrten Zeichenstrings 41 in Fig. 8a R ist. Dieser verzerrte Zei­ chenstring weist keine Verzerrung in horizontaler Richtung auf, ist jedoch um den Winkel R in vertikaler Richtung nach links oben verzerrt. Durch das Ausführungsbeispiel wird ein Projektionsmuster des verzerrten Zeichenstrings in Richtung des Verzerrungswinkels R erhalten. Das erhaltene Ergebnis ist in Fig. 8b dargestellt. Das Projektionsmuster des ver­ zerrten Zeichenstrings 41 in Fig. 8a in vertikaler Richtung wird erhalten, wie es in Fig. 8c dargestellt ist. Das Pro­ jektionsmuster in vertikaler Richtung zeigt an, daß die Zif­ fern "2" und "3", die Ziffern "4" und "5" und die Ziffern "6" und "7" jeweils miteinander verbunden sind. Wenn die Richtung zum Erhalten des Projektionsmusters allmählich ge­ gen die Richtung des Verzerrungswinkels R geneigt wird, wer­ den die miteinander verbundenen Muster getrennt, und die je­ weiligen Breiten der Projektionsmuster der jeweiligen Zif­ fern werden schmäler, wie in Fig. 8b dargestellt. Ein Winkel von -90° in bezug auf die horizontale Richtung ist in diesem Fall (beim Ausführungsbeispiel ist der Winkel in vertikaler Richtung 0°) der Verzerrungswinkel beim Ausführungsbeispiel.
Um den Zustand von Fig. 8b zu ermitteln, wird beim vorlie­ genden Ausführungsbeispiel die Gesamtsumme Σ (i) der Breiten x(i) der Projektionsmuster für i wie folgt ermittelt:
Der Winkel R wird allmählich, ausgehend vom oben genannten Wert von 0°, geändert, um den Wert R zu erhalten, für den die Gesamtsumme Σx(i) minimal wird. So wird der Verzerrungswin­ kel erhalten. Die axiale Längsrichtung in Fig. 8b wird im folgenden als Abtastrichtung bezeichnet. Man kann also auch sagen, daß beim vorliegenden Ausführungsbeispiel die Abtast­ richtung allmählich geneigt wird.
Fig. 7 ist ein Flußdiagramm, das den Ablauf zum Erhalten des Wertes R, für den die oben beschriebene Summe Σx(i) minimal ist, beschreibt. Zunächst wird in einem Schritt 1 ein Ini­ tialisierwert R0 in Abtastrichtung vorgegeben, um ein Pro­ jektionsmuster f(x) für die R-Richtung durch eine Projek­ tionsverteilungsschaltung zu erhalten, die später beschrie­ ben wird (Schritt 2). Anschließend wird die Frequenzzahl der Projektionsverteilung f(x), die sich von Null unterscheidet, durch eine Projektionsbreiten-Ermittlungsschaltung gewonnen, die später beschrieben wird (Schritt 3), und dieser Wert wird als xd(R), wie oben beschrieben, eingestellt. Dann wird in einem Schritt 4 R mit R-Ende verglichen (R-Ende ist die Endrichtung beim Neigen der Abtastrichtung: Die maximale Neigungsrichtung, die aus der Beziehung zwischen einem Ka­ meraanordnungsort und einem Zeichenstring eines zu erkennen­ den Gegenstandes erhalten wird). Wenn R < R-Ende, wird R zum Wert R in einem Schritt 5 hinzugefügt, und dann wird der addierte Wert als neuer Wert R verwendet, und der Ablauf kehrt zu Schritt 2 zurück. Wenn R R-Ende, geht der Ablauf zu einem Schritt 6 weiter, und ein Minimalwert wird durch eine Minimalwert-Ermittlungsschaltung aus den Werten xd(R) erhalten, die für jedes ΔR Intervall gewonnen wurden (die Werte von xd(R), die für jedes ΔR Intervall erhalten werden, werden in einer Kurve dargestellt, wodurch ein Ergebnis er­ halten wird, wie es in Fig. 9 dargestellt ist). Danach wird derjenige Wert von R ermittelt, für den der Minimalwert er­ halten wird. Der so erhaltene Wert für R ist der Verzer­ rungswinkel beim vorliegenden Ausführungsbeispiel.
Das vorliegende Ausführungsbeispiel nimmt an, daß Zeichen nach links oben verzerrt sind, wobei diese Verzerrung posi­ tiv ist mit 0° in vertikaler Richtung in bezug auf den Zei­ chenstring. Wenn dann Zeichen nach rechts verzerrt sind, wird der Wert von R negativ eingestellt, oder der Initiali­ sierwert der Abtastrichtung wird als Maximalwert für die negative Seite vorgegeben, z. B. mit -20°.
Fig. 10 ist ein Blockdiagramm einer Zeichenerkennungseinheit in einer Informationsverarbeitungseinheit gemäß einem Aus­ führungsbeispiel der Erfindung. Die Zeichenerkennungseinheit beim vorliegenden Ausführungsbeispiel weist eine Fernseh­ kamera 10 zum Aufnehmen eines zu erkennenden Zeichenstrings auf, wie sie auch folgende Funktionsgruppen aufweist: einen A/D-Wandler 11 zum Umwandeln des von der Fernsehkamera 10 aufgenommenen Signals in ein digitales Signal mit 7 oder 8 Bits, eine Binärschaltung 18 zum Umwandeln des in ein digi­ tales Signal umgewandeltes Signal in Binärwerte mit Hilfe eines vorgegebenen Schwellwerts, einen Rahmenspeicher 12 zum Speichern des von der Kamera 10 aufgenommenen Bildes als Binärdatenwerte, eine Adreßerzeugungsschaltung 22 zum Erzeu­ gen eines Adreßsignals, das verwendet wird, wenn Daten vom Rahmenspeicher 12 zu lesen sind, eine Projektionsmuster-Er­ mittlungsschaltung 23 zum Ermitteln eines Projektionsmusters (Fig. 8b und 8c) aus den Daten des aufgenommenen Bildes, wie sie aus dem Rahmenspeicher 12 ausgelesen werden, eine Pro­ jektionsbreiten-Ermittlungsschaltung 24, zum Berechnen des oben genannten Verzerrungswinkels R zum Erhalten der Projek­ tionsbreite xd(R) eines aufgenommenen Bildsignals, eine Arithmetikverarbeitungsschaltung 25 zum Ausführen arithmeti­ scher Verarbeitung in der Projektionsbreiten-Ermittlungs­ schaltung 24, eine Verzerrungskorrekturschaltung 26 zum Kor­ rigieren von Ausgangsdaten (Daten für einen verzerrten Zei­ chenstring) aus dem Rahmenspeicher 12 mit Hilfe des Verzer­ rungswinkels R, und eine Erkennungsschaltung 27 zum Erkennen von Zeichen durch Vergleichen der durch die Korrekturschal­ tung 26 korrigierten Zeichenstringdaten mit Wörterbuchdaten 28, die Trennangaben für Zeichen speichern für jedes Wort im Zeichenstring.
Da die im Rahmenspeicher 12 gespeicherten Daten ein Binär­ bild darstellen, nehmen Sie die Werte "0" und "1" ein. Nor­ malerweise nimmt ein Bildelement einer Zeichenlinie (die Minimaleinheit der Quantisierung) den Wert "1" ein, und der Hintergrund nimmt den Wert "0" ein. Der Rahmenspeicher 12 wird durch einen Horizontalwert x und einen Vertikalwert y adressiert. Durch Bestimmen einer Adresse durch vorgegebene Werte x und y ist es möglich, Datenwerte g (x, y) für ein gewünschtes Bildelement zu lesen. Wenn die Adresse, die zur Abtastrichtung paßt, von der Adreßerzeugungsschaltung 22 ausgegeben wird, werden Zeichenstringdaten in Abtastrichtung an die Projektionsmuster-Ermittlungsschaltung 23 ausgegeben.
Die Projektionsmuster-Ermittlungsschaltung 23 ermittelt fol­ genden Wert für die Bildelementdaten g (x, y) mit der Adres­ se (x, y):
Die Projektionsmuster-Ermittlungsschaltung 23 ermittelt also die Anzahl von Bildelementen des Zeichens mit der Koordina­ te x.
Die Projektionsbreiten-Ermittlungsschaltung 24 zählt den Zahlenwert von f(x), der sich von Null unterscheidet, für das Projektionsmuster f(x), wie es von der Projektionsmu­ ster-Ermittlungsschaltung 23 erhalten wird, wodurch die Ge­ samtbreite xd(R) der Projektion erhalten wird.
Die oben beschriebene Verarbeitung wird jedesmal wiederholt, wenn die Abtastrichtung verändert wird. Derjenige Wert von R, für den die Werte xd(R) minimal werden, wird als Verzer­ rungswinkel R verwendet und an die Verzerrungskorrektur­ schaltung 26 ausgegeben.
Die Verzerrungskorrekturschaltung 26 korrigiert verzerrte Zeichen mit Hilfe des Verzerrungswinkels R. Ein String von in Längsrichtung geschriebenen Zeichen weist bei Ansicht von schräg unten eine Verzerrung auf, wie sie in Fig. 17 darge­ stellt ist. Wenn Koordinaten eines gewünschten Punktes des Zeichens im Normalzustand (links dargestellt) (x, y) sind und Koordinaten, die diesem Punkt im verzerrten Zeichen (rechts dargestellt) entsprechen, mit (x′, y′) bezeichnet sind, besteht folgende Beziehung zwischen den zwei Koordi­ naten:
x′ = x + tan R · y
y′ = y
Es besteht also eine Abweichung nur in der x-Koordinate und keine solche in der y-Koordinate. Dementsprechend kann das verzerrte Zeichen korrigiert werden, indem nur der Wert für x korrigiert wird.
Beim vorliegenden Ausführungsbeispiel wird derjenige Winkel gewonnen, bei dem die Projektionsbreite an einem Ort, an dem sich Zeichen befinden, minimal wird. Derselbe Effekt kann jedoch erzielt werden, wenn derjenige Winkel ermittelt wird, unter dem die Projektionsbreite der Lücke zwischen zwei Zei­ chen maximal wird.
Wenn angenommen wird, daß die Zeichenverzerrung 20° gegen­ über dem Winkel Null ist und der Schrittwinkel ΔR 2° ist, muß die oben beschriebene Verarbeitungsfolge 11 Mal für je­ weils 2° ausgeführt werden, beginnend von 0° über 2°, ---, 18° bis 20°. Die Verarbeitung, die beim oben beschriebenen Verarbeitungsablauf am meisten Zeit benötigt, ist diejenige zum Erhalten des Projektionsmusters. Die Verarbeitungszeit kann verringert werden, wenn die Verarbeitung für diesen Zweck verkürzt wird. Im folgenden wird ein Ausführungsbei­ spiel zum Verringern der Anzahl von Verarbeitungsabläufen beschrieben.
Bei der allgemeinen Zeichenerkennung ist es möglich, Zeichen ohne jede Korrektur zu erkennen, wenn die Größe des Zeichen­ verzerrungswinkels innerhalb von etwa ±5° liegt. Daraus folgt, daß der Verzerrungswinkel R mit einer Genauigkeit mit einem Minimum von ±5° ermittelt werden kann. Daher werden nur drei Abtastungen ausgeführt, wie dies durch Fig. 11 ver­ anschaulicht ist (die Abtastwinkel sind mit R1, R2 und R3 bezeichnet). Die Projektionsbreiten für die einzelnen Abta­ stungen sind mit xd(R1), xd(R2) bzw. xd(R3) bezeichnet. Die­ se drei Werte genügen den folgenden Beziehungen (Schritt 46 in Fig. 11):
xd(R) = aR² + bR + c (1)
Genauer gesagt werden folgende Gleichungen verwendet:
xd(R₁) = aR₁² + bR₁ + c (2)
xd(R₂) = aR₂² + bR₂ + c (3)
xd(R₃) = aR₃² + bR₃ + c (4)
Mit Hilfe dieser Gleichungen werden die Werte für a, b und c wie folgt erhalten:
a = (1/2) · {xd(R₃) -2 x xd(R₂) + xd(R₃)} (5)
b = 2· xd(R₂) -1,5 x xd(R₁) - 0,5 x xd(R₃) (6)
c = xd(R₁) (7)
Gleichung (1) wird differenziert, um den Minimalwert von xd(R) wie folgt zu erhalten:
xd(R) = 2aR + b
Daraus ergibt sich der Extremalwert für R zu
R = -b/(2a).
Wenn kein Extremalwert im Bereich R1, R2 und R3 in den Fig. 12a bis 12d erhalten wird, wie dies in den Fig. 12b, 12c und 12d der Fall ist, wird folgende Verarbeitung ausgeführt.
Wenn R0 als Extremalwert im Bereich zwischen R1 bis R3 er­ halten wird und wenn xd(R0) kleiner ist als jeder der ande­ ren Werte xd(R1), xd(R2) und xd(R3), wird R0 als Verzer­ rungswinkel verwendet. In anderen Fällen wird derjenige Wert für R als Verzerrungswinkel verwendet, für den sich der kleinste Wert aus xd(R1), xd(R2) und xd(R3) ergibt. Wenn alle Werte gleich sind (d. h. wenn der oben beschriebene Koeffizient a 0 wird), wird der am dichtesten bei der verti­ kalen Richtung liegende Winkel für den Zeichenstring unter den Winkeln R1, R2 und R3 als Verzerrungswinkel verwendet. Die vorstehend beschriebene Verarbeitung wird in einem Schritt 47 im Flußdiagramm von Fig. 11 ausgeführt.
Bei dieser Anordnung kann die Anzahl von Verarbeitungen zum Erhalten eines Projektionsmusters auf drei verringert wer­ den, wobei die Auflösung etwa 1/3 der Schrittweite von R1, R2 und R3 ist, was zu zufriedenstellender Genauigkeit für das Erkennen von Zeichen führt.
Wenn ein Nummernschild z. B. von unten links betrachtet wird, erscheinen die Zeichen nach links verzerrt. Wenn die vorstehende Verarbeitung für den Zeichenstring unter Winkeln von z. B. 0°, 10° und 20° ausgeführt wird, wird der Verzer­ rungswinkel R für die Zeichen erhalten. Wenn das Nummern­ schild von rechts unten betrachtet wird, erscheinen die Zei­ chen nach rechts verzerrt, im Gegensatz zum vorstehenden Fall. Daher kann die Verarbeitung für Winkel von 0°, -10° und -20° ausgeführt werden (die Verzerrung nach links wird mit positiven Vorzeichen dargestellt).
Bisher erfolgte die Beschreibung für die obigen Ausführungs­ beispiele für den Fall, daß ein Zeichenstring in Längsrich­ tung liegt. Die Erfindung kann jedoch auch auf den Fall an­ gewendet werden, daß ein Zeichenstring vertikal angeordnet ist, in welchem Fall eine ähnliche Verarbeitung ausgeführt werden kann, um die Verzerrung zu korrigieren, um korrekte Zeichenerkennung sicherzustellen. In diesem Fall tritt, im Gegensatz; zu dem in Fig. 17 dargestellten Fall, Verzerrung auf, da sich die y-Koordinate ändert, ohne Änderung der x-Koordinate. Daher wird in diesem Fall Verzerrung nur für die y-Koordinaten korrigiert.
Fig. 16 ist ein Blockdiagramm einer Zeichenerkennungseinheit gemäß einem weiteren Ausführungsbeispiel der Erfindung. Mit der in Fig. 10 dargestellten Ausführungsform wurden Zeichen in einem aufgenommenen Bild (ein verzerrtes Zeichen) mit Hilfe des Verzerrungswinkels korrigiert, und die korrigier­ ten Zeichen wurden mit Wörterbuchdaten zum Erkennen dar Zei­ chen verglichen. Beim vorliegenden Ausführungsbeispiel wer­ den jedoch die Wörterbuchdaten 28 mit Hilfe des berechneten Verzerrungswinkels R korrigiert, und die korrigierten Wör­ terbuchdaten werden mit den verzerrten Zeichen verglichen, um die Zeichen zu erkennen.
Bei jedem der vorstehend beschriebenen Ausführungsbeispiele wird ein aufgenommenes Bildsignal in Binärdaten umgewandelt, die in einem Rahmenspeicher gespeichert werden, und dann wird die Anzahl von Bildelementen im aufgenommenen Bildmu­ ster berechnet. Der Verzerrungswinkel von Zeichen kann je­ doch auch auf ähnliche Weise erhalten werden, wenn zwischen der Zeichenfläche und der Hintergrundfläche auf Grundlage der Dichteänderung im aufgenommenen Bildsignal unterschieden wird. Die Fig. 18 und 19 sind Blockdiagramme für Zeichener­ kennungseinheiten zum Erkennen von Zeichen durch Ermitteln des Verzerrungswinkels R aus Dichteänderungsinformation aus dem aufgenommenen Bildsignal.
Beim Ausführungsbeispiel gemäß Fig. 18 wird ein von einer Kamera 20 aufgenommenes Bildsignal durch einen A/D-Wandler 11 in ein quantisiertes Signal mit 7 oder 8 Bits umgewan­ delt. Das quantisierte Signal wird im Rahmenspeicher 12 ge­ speichert, und Abtastrichtungsdaten für einen gewissen Win­ kel werden aus dem Rahmenspeicher 12 ausgelesen. Die Gesamt­ dichte wird durch eine Dichtesummierschaltung 29 gewonnen. Dann wird die Breite des Bereichs, für den die Dichte ermit­ telt wurde (alternativ kann dies die Fläche des Hintergrund­ bereichs, für den keine Dichteänderungen ermittelt wurden) durch eine Projektionsbreiten-Ermittlungsschaltung 24 ermit­ telt, und die verzerrten Zeichen werden durch eine Korrek­ turschaltung 26 mit Hilfe des Verzerrungswinkels 8 korri­ giert. Das Ergebnis wird in einer Erkennungsschaltung 27 mit Wörterbuchdaten 28 verglichen, wodurch die Zeichen erkannt werden.
Beim Ausführungsbeispiel von Fig. 19 werden die Wörterbuch­ daten 28 mit Hilfe des ermittelten Verzerrungswinkels R kor­ rigiert, und die korrigierten Wörterbuchdaten werden mit den verzerrten Zeichen verglichen, wodurch die Zeichen erkannt werden.
Bei jedem der oben beschriebenen Ausführungsbeispiele wird ein Rahmenspeicher verwendet. Es wird auch eine Hochge­ schwindigkeits-CPU oder dergleichen verwendet, und von der Kamera 10 werden jedesmal dann Bilder aufgenommen, wenn eine Arithmetikverarbeitung für jede Abtastrichtung ausgeführt wird. Wenn Zeichen aus einem aufgenommenen Fahrzeugnummern­ schild zu erkennen sind für ein Fahrzeug, das entweder von rechts oder von links kommt, wobei die Kamera in der Mit­ te steht, sind die Zeichenstrings im aufgenommenen Bild nach links bzw. nach rechts verzerrt. In diesem Fall ist es, wie oben beschrieben, möglich, die Verzerrungen nach rechts bzw. links dadurch zu korrigieren, daß ähnliche Arithmetikabläufe für den Maximalwert der Verzerrung in positiver und negati­ ver Richtung ausgeführt werden. Bei den oben beschriebenen Ausführungsbeispielen wurde der Verzerrungswinkel aus den Daten aus drei Winkel R1, R2 und R3 angenähert. Im Fall von vier oder fünf oder noch mehr Datenwerten kann jedoch z. B. das Verfahren der mittleren Fehlerquadrate verwendet werden, um den Verzerrungswinkel zu erhalten. Es wird nun ein Aus­ führungsbeispiel der Erfindung beschrieben, das dazu in der Lage ist, Zeichen in einem Zeichenstring voneinander zu trennen, die einander berühren.
Fig. 21 veranschaulicht die Struktur des Rahmenspeichers 12. Wenn die horizontale Richtung durch x-Koordinaten und die vertikale Richtung durch y-Koordinaten beschrieben wird, wird ein Bildmuster g (x, y) mit normalerweise 256 Untertei­ lungen für die x-Koordinaten und 256 Unterteilungen für die y-Koordinaten gespeichert. Da der Wert eines Punktes oder eines Bildelementes ein Wert für ein Binärbild ist, ist er "0" oder "1".
Das unter Bezugnahme auf den Stand der Technik beschriebene Projektionsmuster ist eine Summierung der Werte von Bildele­ menten eines Zeichens in vertikaler Richtung. Bei diesem Verfahren wird, wie durch die Fig. 22a und 22b veranschau­ licht, für alle x-Koordinaten ein Wert f(x) wie folgt erhal­ ten, wenn die Daten für ein besonderes Bildelement durch g(x, y) in solcher Weise ausgedrückt werden, daß Zeichen­ bildelemente als g(x, y) = 1 und der Rest der Bildelemente als g(x, y) = 0 gegeben ist:
Fig. 22a zeigt das Zeichenmuster und Fig. 22b zeigt das Pro­ jektionsmuster.
Die Fig. 23a bis 23c zeigen Muster für den Fall eines "-" (Bindestrich) zwischen "8" und "7". Fig. 23b zeigt das Pro­ jektionsmuster f(x) des Musters von Fig. 23a. Wenn die Mu­ ster in einem Bereich voneinander getrennt sind, in dem der Wert größer wird als ein vorgegebener Schwellwert th1, fehlt ein Teil von "7". Daher wird statt dieses Projektionsmusters eine Gewichtsverteilung M(x) um das Zentrum yc der Höhe des in Fig. 23a dargestellten Zeichenstrings ermittelt. Diese Gewichtsverteilung M(x) wird durch folgende Gleichung erhal­ ten:
wenn das Bildelement für ein Zeichen "1" ist
wenn das Bildelement eines Zeichens "0" ist.
Im obigen Fall stellt y die y-Koordinate für jedes Bildele­ ment dar, wenn das linke obere Ende des Rahmenspeichers 12 als Ausgangspunkt gewählt wird. Die Zentrumshöhe yc eines gespeicherten Zeichens ist der Mittelpunkt der Fläche, die eine geringere Frequenz aufweist als der Schwellwert nach dem Ermitteln eines Projektionsmusters z. B. in horizontaler Richtung.
Der Wert von M(x) wird größer, wenn er weiter von der Zen­ trumshöhe yc der Zeichen entfernt liegt. Daraus wird der Unterschied zwischen "-" (Bindestrich) und der Längslinie des oberen Bereichs von "7" deutlich, wie dies in Fig. 23c dargestellt ist. Wenn dementsprechend Zeichen durch den Schwellwert th2 getrennt werden, können das Zeichen 1 ("8") und das Zeichen 2 ("7") zufriedenstellend ermittelt werden.
Wenn Zeichen aus dem in Fig. 24a dargestellten Zeichenstring mit Hilfe des oben beschriebenen Verfahrens abgetrennt wer­ den, ist es möglich, diese in solchen Bereichen zu trennen, in denen sie nahe der Zentrumshöhe yc des Zeichenstrings einander berühren, in dem der Schwellwert th verwendet wird. Es ist jedoch nicht möglich, die Zeichen 1 ("5" und "2") und das Zeichen 5 ("5" und "7") aufzulösen. Daher wird eine Ge­ samtverarbeitung ausgeführt, wie sie durch Fig. 20 veran­ schaulicht wird.
Zunächst wird die oben beschriebene Gewichtsverteilung M(x) mit Hilfe der Gewichtsverteilungs-Ermittlungsschaltung um yc herum gewonnen (Schritt 50), und die Koordinaten der Berei­ che über dem Schwellwert th (obere Koordinaten up) und die Koordinaten der Bereiche unter dem Schwellwert th (untere Koordinaten dw) werden in ihrer Verteilung durch die Trenn­ schaltung ermittelt (Schritt 51). Dann werden die Breiten der mit Hilfe einer Standardzeichen-Breitenermittlungsschal­ tung getrennten Zeichenblöcke aus den Koordinaten dw und up erhalten, und eine mittlere Zeichenbreite wird ermittelt, indem nur ein Zeichenblock verwendet wird, der einer vorge­ gebenen Breite genügt (Schritt 52). Im Fall der Fig. 24a und Fig. 24b sind die Zeichen 2, 3 und 4 jeweilige Zeichen­ blöcke und es wird der Mittelwert für die Zeichenbreiten dieser Zeichenblöcke ermittelt. Wenn nur eine kleine Anzahl von Blöcken einen vorgegebenen Wert erfüllt (z. B. nur zwei Blöcke oder nur einer), wird die Genauigkeit für die Bestim­ mung der Standardbreite geringer. In diesem Fall wird der Mittelwert dar Zeichenbreite aus der mittleren Höhe yd des gesamten Zeichenstrings geschätzt. Wenn die Standardzeichen­ breite als x_s bezeichnet wird, ergibt sich folgendes:
x_s = d x yd (wobei d vorab festgelegt wird).
Danach werden Zeichenblöcke, die nicht mit Hilfe des Schwellwertes th in der Gewichtsverteilung M(x) (Zeichen 1 und 5 in Fig. 24b) getrennt werden können, mit Hilfe der Zeichentrennschaltung getrennt (Schritt 53). Wieviele Zei­ chen mit Standardzeichenbreite der Breite Xd eines Zeichen­ blocks entsprechen, wird durch β = Xd x x_s mit Hilfe von x_s erhalten. Im Fall von z. B. zwei Zeichen wird die mitt­ lere x-Koordinate für xd erhalten, die Größe der Gewichts­ verteilung M(x) wird im Bereich von ±τ (ein Fehlerbereich für die Zeichenbreite wird festgesetzt) für die x-Koordinate überprüft, und die Zeichen werden bei denjenigen x-Koordina­ ten geteilt, für die M(x) minimal ist. Im Fall von drei Zei­ chen können die Zeichen zufriedenstellend dadurch getrennt werden, daß sie auf entsprechende Weise in drei gleiche Be­ reiche unterteilt werden.
Beim oben beschriebenen Verfahren können Zeichen in einem Fehlerbereich von ±τ zufriedenstellend selbst dann geteilt werden, wenn die Abstände zwischen Zeichen in gewissem Aus­ maß schwanken (die Abstände zwischen Zeichen hängen von Quantisierungsfehlern, der Dicke von Zeichen usw. ab, selbst wenn die Zeichen alle mit gleichen Intervallen gedruckt sind).
Da die Gewichtsverteilung M(x) um die Zentrumshöhe yc der Zeichen ermittelt wird, liegt der Trennort in der Mitte der Zeichen im Fall der lateinischen Zeichen "H" und "N". Da­ durch hat das Verfahren den Nachteil dieser Fehlanpassung an lateinische Zeichen. Jedoch können Ziffern sicher durch die oben beschriebene M(x)-Verarbeitung getrennt werden, da alle Ziffern 0 bis 9 mindestens eine Linie oben oder unten auf­ weisen.

Claims (24)

1. Binäres Verarbeitungsverfahren für ein Bild variabler Dichte mit folgendem Schritt:
  • - Gewinnen eines ersten Bildes durch Abtasten eines zweidi­ mensionalen Bildes;
dadurch gekennzeichnet, daß:
  • - die Helligkeit des ersten, binär zu verarbeitenden Bildes variabler Dichte in 1/n geändert wird (wobei n eine ganze Zahl entsprechend 2 oder größer ist), wodurch ein zweites Bild erhalten wird,
  • - eine Expansionsverarbeitung mit dem zweiten Bild ausge­ führt wird, wodurch ein drittes Bild erhalten wird;
  • - das dritte Bild geglättet wird, um ein viertes Schwell­ wertbild für binäre Verarbeitung zu erzeugen; und
  • - die Differenz zwischen dem erzeugten vierten Schwellwert­ bild und dem binär zu verarbeitenden ersten Bild mit variab­ ler Dichte gebildet wird, wodurch das Bild binär verarbeitet wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zusätzlich das erste oder das zweite Bild geglättet wird.
3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, daß die Differenz für jedes Bildelement ge­ bildet wird und das erhaltene Differenzbild mit einem vorge­ gebenen Schwellwert binär verarbeitet wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das binär zu verarbeitende Bild variabler Dichte ein Hinter­ grunddifferenzbild ist, das das Ergebnis des Bildens der Differenz zwischen dem Bild variabler Dichte und einem Hin­ tergrundbild für jedes Bildelement ist.
5. Binäres Verarbeitungsverfahren für ein Bild mit variab­ ler Dichte, das durch Abtasten eines zweidimensionalen Bilds erhalten wird, dadurch gekennzeichnet, daß Binärbilder, die durch mehrere Binärverarbeitungsverfahren erhalten werden, jeweils auf einem Monitor dargestellt werden, ein gewünsch­ tes Binärverarbeitungsverfahren aus den dargestellten Binär­ bildern ausgewählt wird und das ausgewählte Binärverarbei­ tungsverfahren ausgeführt wird.
6. Binärverarbeitungsverfahren für ein Bild variabler Dich­ te, das durch Abtasten eines zweidimensionalen Bildes erhal­ ten wird, dadurch gekennzeichnet, daß Binärbilder, die durch mehrere Binärverarbeitungsverfahren erhalten werden, begut­ achtet werden, das Verfahren mit der höchsten Erkennungsrate aus den Begutachtungsergebnissen ausgewählt wird und das ausgewählte Verfahren ausgeführt wird.
7. Binärverarbeitungsverfahren für ein Bild mit variabler Dichte, das durch Abtasten eines zweidimensionalen Bildes erhalten wird, dadurch gekennzeichnet, daß als Binärbild zu bearbeitende Bereiche vorab bestimmt werden, ein Binärverar­ beitungsverfahren ausgewählt wird, das ein Verarbeitungser­ gebnis bei Binärverarbeitung erzielt, das der Information in den vorgegebenen Bereichen am ähnlichsten ist, und das aus­ gewählte Verfahren ausgeführt wird.
8. Binärverarbeitungseinheit für ein Bild mit variabler Dichte, gekennzeichnet durch:
  • - einen Speicher (12) für Bilder variabler Dichte, zum Spei­ chern eines Bildes variabler Dichte, wie es über eine TV- Kamera oder dergleichen eingegeben wird;
  • - eine Bildskalierschaltung (14) zum Einstellen der Hellig­ keit des Bildes variabler Dichte, wie es im Speicher (12) für variable Dichte gespeichert wird, auf 1/n (wobei n eine ganze Zahl entsprechend 2 oder größer ist);
  • - eine Expansionsschaltung zum Ausführen einer Expansions­ verarbeitung an dem mit der Skalierschaltung erhaltenen Bild;
  • - eine Glättungsschaltung (16) zum Glätten des durch die Ex­ pansionsschaltung expandierten Bildes;
  • - eine Arithmetikbetriebsschaltung (17) für Zwischenbilder zum Erhalten der Differenz zwischen dem durch die Glättungs­ schaltung (16) erhaltenen Bild und dem Bild variabler Dich­ te; und
  • - eine Binärverarbeitungsschaltung (18) zum Umwandeln des von der Arithmetikbetriebsschaltung (17) erhaltenen Diffe­ renzzwischenbildes in Binärwerte unter Beachtung eines vor­ gegebenen Schwellwertes.
9. Zeichenerkennungsverfahren zum Erkennen von Zeichen in einem aufgenommenen Bild mit Hilfe von Wörterbuchdaten, da­ durch gekennzeichnet, daß ein Verzerrungswinkel für verzerr­ te Zeichen, die durch Aufnehmen eines Bildes aus schräger Richtung erhalten wurden, zwischen der Richtung, in der die Zeichenbreiten minimal sind, und der Horizontalrichtung er­ mittelt wird, die Horizontalrichtungskomponente der verzerr­ ten Zeichen oder der Wörterbuchdaten mit dem Verzerrungswin­ kel korrigiert werden und die Zeichen erkannt werden.
10. Zeichenerkennungsverfahren zum Erkennen von Zeichen in einem aufgenommenen Bild mit Hilfe von Wörterbuchdaten, da­ durch gekennzeichnet, daß ein Verzerrungswinkel für verzerr­ te Zeichen, die durch Aufnehmen eines Bildes aus schräger Richtung erhalten wurden, zwischen der Richtung, in der die Zeichenhöhen minimal sind, und der Vertikalrichtung er­ mittelt wird, die Vertikalrichtungskomponente der verzerr­ ten Zeichen oder der Wörterbuchdaten mit dem Verzerrungswin­ kel korrigiert werden und die Zeichen erkannt werden.
11. Zeichenerkennungseinheit zum Erkennen von Zeichen, die in einem aufgenommenen Bild erhalten werden, mit Hilfe von Wörterbuchdaten, gekennzeichnet durch:
  • - eine Einrichtung (23, 24) zum Ermitteln eines Verzerrungs­ winkels zwischen der horizontalen Richtung und einer Rich­ tung, in der die Zeichenbreiten der verzerrten Zeichen eines aus schräger Richtung aufgenommenen Bildes minimal werden;
  • - eine Einrichtung (26) zum Korrigieren der horizontalen Richtungskomponenten der verzerrten Zeichen oder Wörterbuch­ daten mit Hilfe des Verzerrungswinkels; und
  • - eine Einrichtung (27) zum Erkennen der Zeichen.
12. Zeichenerkennungseinheit zum Erkennen von Zeichen, die in einem aufgenommenen Bild erhalten werden, mit Hilfe von Wörterbuchdaten, gekennzeichnet durch:
  • - eine Einrichtung (23, 24) zum Ermitteln eines Verzerrungs­ winkels zwischen der vertikalen Richtung und einer Richtung, in der die Zeichenhöhen der verzerrten Zeichen eines aus schräger Richtung aufgenommenen Bildes minimal werden;
  • - eine Einrichtung (26) zum Korrigieren der vertikalen Rich­ tungskomponenten der verzerrten Zeichen oder Wörterbuchdaten mit Hilfe des Verzerrungswinkels; und
  • - eine Einrichtung (27) zum Erkennen der Zeichen.
13. Zeichenerkennungseinheit mit
  • - einem Rahmenspeicher (12) zum Ändern eines aufgenommenen Bildsignals, das durch horizontales und vertikales Abtasten eines zu erkennenden Zeichenstrings erhalten wird, in Binär­ daten und zum Umwandeln der Binärdaten in Bildelemente und zum Speichern derselben;
  • - eine Adreßbestimmungseinheit (22) zum Bestimmen der Adres­ se des Rahmenspeichers, zum Abtasten der im Rahmenspeicher gespeicherten Daten ausgehend von einer vorgegebenen Posi­ tion in einer vorgegebenen Richtung und zum Lesen der ge­ speicherten Daten;
  • - einer Projektionsmuster-Ermittlungseinrichtung (23) zum Er­ mitteln einer Anzahl von Bildelementen, die den Zeichen­ string in den Bilddaten darstellen, wie sie bei jedem Abta­ sten durch die Adreßerzeugungseinrichtung ausgelesen werden;
  • - einer Projektionsbreiten-Ermittlungseinrichtung (24) zum Erhalten einer Anzahl von Abtastlinien oder einer Breite von Abtastlinien, wenn der Projektionswert des Projektionsmu­ sters nicht "0" ist;
  • - einer Verzerrungswinkel-Ermittlungseinrichtung (26) zum Abtasten des Rahmenspeichers durch allmähliches Ändern der Richtung der Abtastlinie, um aus derjenigen Abtastlinie den Verzerrungswinkel zu erhalten, für den die ermittelte Pro­ jektionsbreite minimal wird;
  • - einer Einrichtung (30) zum Trennen der Daten für jedes Zeichen vom Zeichenstring;
  • - einer Korrektureinrichtung (26) zum Korrigieren nur der Horizontal- oder der Vertikalkomponente der Datenwerte jedes Zeichens oder der Wörterbuchdatenwerte, die jedem Zeichen entsprechen; und
  • - einer Erkennungseinrichtung (27) zum Erkennen von Zeichen durch Vergleichen der korrigierten Zeichendaten oder der korrigierten Wörterbuchdaten mit nichtkorrigierten Wörter­ buchdaten bzw. nichtkorrigierten Zeichendaten.
14. Zeichenerkennungseinheit mit
  • - einem Rahmenspeicher (12) zum Speichern variabler Dichte­ information, die durch horizontales und vertikales Abtasten eines zu erkennenden Zeichenstrings erhalten wird;
  • - eine Adreßbestimmungseinheit (22) zum Bestimmen der Adres­ se des Rahmenspeichers, zum Abtasten der im Rahmenspeicher gespeicherten Daten ausgehend von einer vorgegebenen Posi­ tion in einer vorgegebenen Richtung und zum Lesen der ge­ speicherten Daten;
  • - einer Berechnungseinrichtung (29) zum Erhalten eines Dich­ tesummationswertes, der den Zeichenstring, wie er bei jedem Abtasten durch die Adreßbezeichnungseinrichtung (22) ausge­ lesen wird, repräsentiert;
  • - einer Projektionsbreiten-Ermittlungseinrichtung (24) zum Erhalten einer Anzahl von Abtastlinien oder einer Breite von Abtastlinien, wenn der Projektionswert des Projektionsmu­ sters nicht "0" ist;
  • - einer Verzerrungswinkel-Ermittlungseinrichtung zum Abta­ sten des Rahmenspeichers durch allmähliches Ändern der Rich­ tung der Abtastlinie, um aus derjenigen Abtastlinie den Ver­ zerrungswinkel zu erhalten, für den die ermittelte Projek­ tionsbreite minimal wird;
  • - einer Einrichtung zum Trennen der Daten für jedes Zeichen vom Zeichenstring;
  • - einer Korrektureinrichtung (26) zum Korrigieren nur der Horizontal- oder der Vertikalkomponente der Datenwerte jedes Zeichens oder der Wörterbuchdatenwerte, die jedem Zeichen entsprechen; und
  • - einer Erkennungseinrichtung (27) zum Erkennen von Zeichen durch Vergleichen der korrigierten Zeichendaten oder der korrigierten Wörterbuchdaten mit nichtkorrigierten Wörter­ buchdaten bzw. nichtkorrigierten Zeichendaten.
15. Zeichenerkennungseinheit, gekennzeichnet durch folgende Unterschiede gegenüber der Einheit von Anspruch 13:
  • - die Projektionsbreiten-Ermittlungseinrichtung (24) ist so ausgebildet, daß sie die Anzahl von Abtastlinien oder die Breite von Abtastlinien dann ermittelt, wenn der Projek­ tionswert des Projektionsmuster "0" wird; und
  • - die Verzerrungswinkel-Ermittlungseinrichtung zum Abtasten dea Rahmenspeichers durch allmähliches Ändern der Richtung der Abtastlinien ist so ausgebildet, daß sie aus derjenigen Abtastrichtung den Verzerrungswinkel gewinnt, für die die Projektionsbreite maximal wird.
16. Zeichenerkennungseinheit, gekennzeichnet durch folgende Unterschiede gegenüber der Einheit von Anspruch 14:
  • - die Projektionsbreiten-Ermittlungseinrichtung (24) ist so ausgebildet, daß sie die Anzahl von Abtastlinien oder die Breite von Abtastlinien dann ermittelt, wenn der Dichtesum­ mationswert "0" wird; und
  • - die Verzerrungswinkel-Ermittlungseinrichtung zum Abtasten des Rahmenspeichers durch allmähliches Ändern der Richtung der Abtastlinien ist so ausgebildet, daß sie den Verzer­ rungswinkel aus derjenigen Abtastrichtung bestimmt, bei der die ermittelte Projektionsbreite maximal wird.
17. Zeichenerkennungseinheit nach einem der Ansprüche 14 oder 16, dadurch gekennzeichnet, daß die Hintergrundfarbe der Zeichen als "0" gegeben ist.
18. Zeichenerkennungseinheit nach einem der Ansprüche 13 bis 17, gekennzeichnet durch eine Einrichtung (46, 47) zum Er­ mitteln des Verzerrungswinkels des Zeichenstrings in solcher Weise, daß drei Abtastrichtungen R1, R2 und R3 vorgegeben sind, die für die jeweilige dieser Richtungen ermittelten Projektionsbreiten xd(R1), xd(R2) bzw. xd(R3) sind, auf die eine Gleichung xd(R) = aR2+bR+c angewendet wird, und bei der derjenige Wert von R, für den in dieser quadratischen Kurve ein Minimal- oder Maximalwert erhalten wird, als Ver­ zerrungswinkel verwendet wird.
19. Zeichenerkennungseinheit nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, daß die Zeichenerkennungseinheit statt des Rahmenspeichers (12) eine Einrichtung (10) zum Aufnehmen eines Bildes bei jedem Abtasten aufweist.
20. Zeichenerkennungseinheit zum Erkennen von Zeichen mit Hilfe von Wörterbuchdaten aus einem Zeichenstringmuster, das durch Aufnehmen eines Bildes erhalten wurde, mit einer Zei­ chenabtrennschaltung mit:
  • - einer Gewichtsverteilungs-Ermittlungsschaltung (50) zum Ermitteln der Zentrumshöhe yc des Zeichenstrings, wie er durch Aufnehmen des Bildes erhalten wurde, und zum Ermitteln einer Gewichtsverteilung in vertikaler Richtung auf Grund­ lage der Zentrumshöhe yc als Achse; und
  • - einer Zeichenblock-Trennschaltung (51) zum Vergleichen des durch die Gewichtsverteilungs-Ermittlungsschaltung (50) er­ haltenen Gewichtsverteilungswertes mit einem vorgegebenen Schwellwert und zum Abtrennen einer solchen Bereichsbreite als Zeichenblock, in der der Gewichtsverteilungswert größer ist als der Schwellwert;
  • - wobei durch die Zeichentrennschaltung abgetrennte Zeichen mit den Wörterbuchdaten verglichen werden, um die Zeichen zu erkennen.
21. Zeichenerkennungseinheit nach Anspruch 20, gekennzeich­ net durch
  • - eine Ermittlungsschaltung (52) zum Ermitteln einer Stan­ dardzeichenbreite für den Zeichenstring; und
  • - eine Zeichenstring-Teilschaltung (53) zum Ermitteln, wie­ viele sich berührende Zeichen in dem mit Hilfe der Zeichen­ block-Trennschaltung (51) unterteilten Zeichenblock vorhan­ den sind, was mit Hilfe der Standardzeichenbreite erfolgt, zum Ermitteln der Koordinaten der Breite des Zeichenblocks, der durch die ermittelte Zeichenanzahl gleich unterteilt wird, zum Ermitteln des Orts, in dem der Gewichtsvertei­ lungswert minimal im Bereich der erhaltenen Koordinaten wird, und zum Unterteilen des Zeichenblocks.
22. Zeichenerkennungseinheit nach Anspruch 21, gekennzeich­ net durch:
  • - eine Gewichtsverteilungs-Ermittlungsschaltung (50) zum Er­ mitteln einer Gewichtsverteilung M(x) um die y-Koordinaten des Zentrums yc der Zeichenhöhe durch Aufsummieren absoluter Werte für die Differenzen zwischen den y-Koordinaten von Bildelementen g(x, y) entlang einer Zeichenlinie und yc ge­ mäß folgender Gleichung:
23. Zeichenerkennungseinheit nach Anspruch 21, gekennzeich­ net durch eine Ermittlungsschaltung (52) für Standardzei­ chenbreiten, zum Abschätzen einer Standardzeichenbreite aus einem Mittelwert der Breite eines Zeichenblocks, die der­ jenigen entspricht, wie sie für den Zeichenblock durch die Trennschaltung (51) erhalten wird, und die einem vorgegebe­ nen Wert genügt, oder aus Höhen der Zeichen des Zeichen­ strings.
DE4102587A 1990-01-31 1991-01-29 Verfahren und Vorrichtung zur binären Bildverarbeitung Expired - Fee Related DE4102587C2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019062A JPH03225489A (ja) 1990-01-31 1990-01-31 接触文字切出方式
JP2045566A JPH03250280A (ja) 1990-02-28 1990-02-28 文字認識方法及び装置並びに情報処理装置
JP2067114A JP2960468B2 (ja) 1990-03-19 1990-03-19 濃淡画像の2値化方法及び装置

Publications (2)

Publication Number Publication Date
DE4102587A1 true DE4102587A1 (de) 1991-08-01
DE4102587C2 DE4102587C2 (de) 1994-10-13

Family

ID=27282477

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4102587A Expired - Fee Related DE4102587C2 (de) 1990-01-31 1991-01-29 Verfahren und Vorrichtung zur binären Bildverarbeitung

Country Status (3)

Country Link
US (1) US5243668A (de)
DE (1) DE4102587C2 (de)
TW (1) TW197509B (de)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3082491B2 (ja) * 1992-01-27 2000-08-28 松下電器産業株式会社 文字フォントデータ出力装置
JPH06245063A (ja) * 1992-12-25 1994-09-02 Dainippon Screen Mfg Co Ltd 色分解条件の設定方法
WO1994027251A1 (en) * 1993-05-18 1994-11-24 Massachusetts Institute Of Technology Automated reading system and method
US6268935B1 (en) * 1994-04-15 2001-07-31 Minolta Co., Ltd. Image processor
JP3550203B2 (ja) * 1995-01-10 2004-08-04 富士写真フイルム株式会社 画像解析装置
US5719594A (en) * 1995-10-06 1998-02-17 International Business Machines Corporation Method and system in a data processing system for improved video image resolution when enlarging a video sequence
DE19606603A1 (de) * 1996-02-22 1997-08-28 Beck Bernhard Verfahren zur Ausfiltrierung der intensivsten Strahlungserscheinung auf einer bestimmten Fläche innerhalb einer bestimmten Zeit
JP3604902B2 (ja) * 1998-04-10 2004-12-22 キヤノン株式会社 画像処理装置
AT414177B (de) * 2000-08-10 2006-09-15 Oesterr Forsch Seibersdorf Verfahren und einrichtung zur erstellung von korrelations-bildpunktmengen
JP3878401B2 (ja) 2000-09-14 2007-02-07 シャープ株式会社 画像処理装置、画像処理方法およびそれを記録した記録媒体
DE10143522C2 (de) * 2001-09-05 2003-07-10 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Untersuchen eines Objekts
KR100599141B1 (ko) * 2005-05-20 2006-07-12 삼성전자주식회사 문서 압축시스템 및 그 압축방법
JP4950834B2 (ja) * 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
KR101214772B1 (ko) * 2010-02-26 2012-12-21 삼성전자주식회사 문자의 방향성을 기반으로 한 문자 인식 장치 및 방법
US8736894B2 (en) * 2011-12-20 2014-05-27 Eastman Kodak Company Producing correction data for printer
US9734132B1 (en) * 2011-12-20 2017-08-15 Amazon Technologies, Inc. Alignment and reflow of displayed character images
JP5906788B2 (ja) 2012-02-17 2016-04-20 オムロン株式会社 文字切り出し方法、およびこの方法を用いた文字認識装置およびプログラム
JP6666253B2 (ja) * 2014-01-24 2020-03-13 サノフィ−アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 光学式文字認識(ocr)を用いて使用者が設定した用量値を記録および表示するために注射デバイスに取り付けるための補助デバイス
EP3149700B1 (de) * 2014-05-30 2018-12-12 Providence Health & Services - Oregon D/B/A Bildverarbeitungsverfahren und system zur analyse eines mehrkanaligen bildes aus einer anhand mehrerer färbungen gefärbten biologischen gewebeprobe
JP6430914B2 (ja) 2014-12-22 2018-11-28 キヤノンイメージングシステムズ株式会社 画像処理装置および画像処理方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3433493A1 (de) * 1983-09-12 1985-04-04 Ricoh Co., Ltd., Tokio/Tokyo System zur digitalisierung von bildsignalen

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58202666A (ja) * 1982-05-21 1983-11-25 Ricoh Co Ltd 2値化方式
JPS5966783A (ja) * 1982-10-08 1984-04-16 Fuji Electric Co Ltd 文字列検査装置
JPS6172373A (ja) * 1984-09-17 1986-04-14 Fujitsu Ltd 認識装置
DE3545951A1 (de) * 1984-12-28 1986-08-14 Canon K.K., Tokio/Tokyo Bildverarbeitungsgeraet
US4823194A (en) * 1986-08-01 1989-04-18 Hitachi, Ltd. Method for processing gray scale images and an apparatus thereof
JPH0624014B2 (ja) * 1986-08-01 1994-03-30 株式会社日立製作所 濃淡画像の処理方法
JPH0634256B2 (ja) * 1987-03-04 1994-05-02 シャープ株式会社 接触文字切出し方法
JPH01156887A (ja) * 1987-12-15 1989-06-20 Seiko Epson Corp 文字認識装置
GB8906587D0 (en) * 1989-03-22 1989-05-04 Philips Electronic Associated Region/texture coding systems

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3433493A1 (de) * 1983-09-12 1985-04-04 Ricoh Co., Ltd., Tokio/Tokyo System zur digitalisierung von bildsignalen

Also Published As

Publication number Publication date
TW197509B (de) 1993-01-01
DE4102587C2 (de) 1994-10-13
US5243668A (en) 1993-09-07

Similar Documents

Publication Publication Date Title
DE4102587A1 (de) Verfahren und einheit zur binaeren bildverarbeitung sowie verfahren und einheit zur zeichenerkennung
DE3546135C2 (de)
DE69629888T2 (de) Bildverarbeitungsverfahren und Bilderkennungs- und Pixelverarbeitungssystem
DE602004002618T2 (de) Verfahren und System zur Kantenhervorhebung
DE69926205T2 (de) Artefaktentfernungstechnik für schiefenkorrigierte bilder
DE69022469T2 (de) Zitter-Bildverarbeitungsmethode.
DE19529142C2 (de) Verfahren zum automatischen Identifizieren einer Menge Fehlerstellen in einem digitalen Bild
DE3110222C2 (de) Verfahren zur partielle glättenden Retusche bei der elektronischen Farbbildreproduktion
DE3851173T2 (de) Verfahren und Gerät zur Erkennung von Halbtonbildmustern.
DE60132315T2 (de) Verbessertes verfahren zur bildbinarisierung
DE3935067C2 (de)
DE3006578C2 (de)
EP0925682B1 (de) Verfahren zur detektion von kanten in einem bildsignal
DE112008002819T5 (de) Autofokus-Bildsystem
DE10243306A1 (de) Verfahren und Vorrichtung zur Verarbeitung von Bildsensor-Ausgabedaten
DE3839299A1 (de) Bildverarbeitungseinrichtung
DE112018004661T5 (de) Schattenerkennungsverfahren für ein Überwachungsvideobild, System davon undSchattenentfernungsverfahren
DE2757456A1 (de) Korrelator fuer videoverarbeitung
DE69029429T2 (de) Binäres Bildreduzierungsverfahren
DE69927239T2 (de) System und verfahren zur verarbeitung von bildern
DE3437063A1 (de) Verfahren und anordnung zur darstellung eines halbtonbildes unter verwendung eines detektionsangepassten rasters
DE69218272T2 (de) Bildeingabegerät
EP0059705A1 (de) Verfahren und schaltungsanordnung zur partiellen korrektur der zeichnung bei der farbbildreproduktion.
DE19531392C1 (de) Verfahren zur Erzeugung einer Graphrepräsentation von Bildvorlagen
DE69722605T2 (de) Verfahren und vorrichtung zur bilderkennung sowie ihre anwendung in einem kopiergerät und einem drucker

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee