DE69232493T2 - Verfahren und Gerät zur Zeichenerkennung - Google Patents

Verfahren und Gerät zur Zeichenerkennung

Info

Publication number
DE69232493T2
DE69232493T2 DE69232493T DE69232493T DE69232493T2 DE 69232493 T2 DE69232493 T2 DE 69232493T2 DE 69232493 T DE69232493 T DE 69232493T DE 69232493 T DE69232493 T DE 69232493T DE 69232493 T2 DE69232493 T2 DE 69232493T2
Authority
DE
Germany
Prior art keywords
character
recognition
segmented
character image
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69232493T
Other languages
English (en)
Other versions
DE69232493D1 (de
Inventor
Hiroaki Ikeda
Tetsuomi Tanaka
Shugoro Ueno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP03272707A external-priority patent/JP3126440B2/ja
Priority claimed from JP03275115A external-priority patent/JP3133797B2/ja
Priority claimed from JP3288286A external-priority patent/JPH05128299A/ja
Priority claimed from JP4199746A external-priority patent/JPH0644406A/ja
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE69232493D1 publication Critical patent/DE69232493D1/de
Application granted granted Critical
Publication of DE69232493T2 publication Critical patent/DE69232493T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)
  • Character Input (AREA)

Description

  • Diese Erfindung bezieht sich auf ein Verfahren und Gerät zur Zeichenerkennung, und insbesondere auf ein Verfahren und Gerät zur Zeichenerkennung, wobei Zeichen erkannt werden, nachdem sie aus einem Bild segmentiert worden sind.
  • Herkömmliche Verfahren und Geräte zur Zeichenerkennung bei eingegebenen Bildern haben verschiedene charakteristische Merkmale. Ein Gerät, das beispielsweise eine Segmentierung und Zeichenerkennung von einem eingegebenen Bild ausführt, ist aufgebaut aus Komponenten, die voneinander getrennt sind. Die Ergebnisse des Segmentierens werden unter Verwendung von Übertragungsmitteln übertragen, und die Zeichenerkennung wird auf der Grundlage der Übertragungsdaten ausgeführt.
  • In der Prozedur zur Zeichenerkennungsverarbeitung wird auch das herkömmliche Gerät zur Zeichenerkennung in der Weise eingerichtet, daß Zeichen von einem eingegebenen Bild segmentiert werden, und zwar eines nach dem anderen, um die Merkmale auszulesen, wonach jedes Zeichen einer Musteranpassung in Hinsicht auf ein Standardzeichenmuster unterzogen wird, welches im voraus vorbereitet wurde, um die Ähnlichkeit mit den Merkmalen eines Standardzeichens zu errechnen, und das Zeichen mit dem höchsten Ähnlichkeitsgrad wird als Ergebnis der Erkennung verwendet.
  • Es gibt zwei Verfahren des Segmentierens von Zeichen aus dem eingegebenen Bild. Da gibt es (1) ein Grenzfolgeverfahren, bei dem eine Grenze verfolgt wird, und (2) ein Projektionsverfahren zum Erzielen der Projektion eines Zeichenbildes. Eine Übersicht dieser Verfahren ist nun beschrieben.
  • (1) Das Grenzfolgeverfahren
  • Dieses Verfahren umfaßt das Verfolgen einer Grenze von einem Pixel auf der Grenze eines Zeichenbildes. Zur Erläuterung stellt man sich ein Koordinatensystem vor, bei dem das obere linke Ende des eingegebenen Bildes der Ursprung ist, die X-Achse ist nach rechts gerichtet (die Horizontalrichtung) und die Y-Achse ist nach unten gerichtet (die Vertikalrichtung). Zuerst sei der Startpunkt ein Pixel eines Gegenstandszeichenbildes, dessen x- und y-Koordinaten ein Minimum sind. Als nächstes wird dieses Startpunktpixel vom Gegenstandspixel angenommen, acht dieses Gegenstandspixel umgebende benachbarte Pixel werden im Uhrzeigersinn in abfallender Reihenfolge untersucht, beginnend mit "1", wie in Fig. 34 gezeigt, und das Gegenstandspixel wird verschoben, wenn das Pixel eines Zeichens als gegenwärtig befunden wird. Zu dieser Zeit werden die Koordinaten dieses Pixels im Speicher gespeichert. Obwohl die acht benachbarten Pixel dieses Gegenstandspixels dann untersucht werden, wird die Reihenfolge, in der diese acht benachbarten Pixel untersucht werden, so gewählt, daß, wenn das gegenwärtige Gegenstandspixel an der Position von "2" oder "3" in Fig. 34 ist, gesehen von dem vorherigen Gegenstandspixel, die Untersuchung von "1" in Fig. 34 beginnt. Des weiteren startet die Untersuchung von "3", wenn das gegenwärtige Gegenstandspixel an einer Position von "4" oder "5" ist; von "5", wenn das gegenwärtige Gegenstandspixel an der Position von "6" oder "7" ist; und von "7", wenn das gegenwärtige Gegenstandspixel an der Position von "8" oder "1" ist. Verfolgt man somit das Rückkehren zum Startpunkt, dann endet das Segmentieren.
  • (2) Projektionsverfahren
  • Dieses Verfahren umfaßt das Auslesen eines rechteckigen Bereichs, der eine Ein-Zeilen-Reihe darstellt, und dann das Auslesen eines rechteckigen Bereichs, der ein Zeichen darstellt. Wenn wir die Zeichenreihe der Seitenschrift heranziehen, wie sie in Fig. 35 als ein Beispiel gezeigt ist, und eine Projektion P1 auf eine Projektionsebene 801 in Horizontalrichtung annehmen, wird ein rechteckiger Bereich 803 mit einer Höhe, die der Länge (h) von P1 äquivalent ist und die Ein-Zeilen-Reihe darstellt, gewonnen. Wenn des weiteren eine Projektion in Vertikalrichtung angenommen wird in Hinsicht auf den gewonnenen rechteckigen Bereich 803, der die Ein-Zeilen-Reihe darstellt, werden Projektionen P2-P7 (sind bezeichnet mit "Zeichenblock") auf einer Projektionsebene 802 gewonnen. Somit sind die Zeichen segmentiert.
  • Die Mustererkennungsverarbeitung, die das herkömmliche Zeichenerkennungsgerät ausführt, kann allgemein zusammengefaßt werden wie im Ablaufdiagramm von Fig. 36 dargestellt. Gemäß der Prozedur des Ablaufdiagramms enthält die Verarbeitung das Eingeben eines Bildoriginals (Schritt S901), Segmentieren von Zeichen von eingegebenen Bild, immer eins nach dem anderen (Schritt S902), Auslesen der Merkmale der Zeichen (Schritt S903), danach Errechnen der Ähnlichkeit mit Merkmalen, die im voraus gewonnen wurden, gemäß der Kategorie (Schritt S904) und als Ergebnisse der Erkennung Annehmen des Zeichens, das zu der Kategorie gehört, die den höchsten Grad an Ähnlichkeit aufweist (Schritt S905).
  • Wenn jedoch das Verarbeiten gemäß dem zuvor beschriebenen Stand der Technik ausgeführt wird, werden die Ergebnisse der Zeichensegmentierung übertragen unter Verwendung von Kommunikationsmitteln zu einem Gerät, das die Zeichenerkennung ausführt, und folglich ist es erforderlich, daß das Gerät Mittel enthält zum Verwalten der Ergebnisse der Zeichensegmentierung. Dies ist ein hoher Kostenfaktor.
  • Die Verarbeitung zum Übertragen der Ergebnisse der Zeichensegmentierung erfordert des weitern des sequentielle Ausführen der Verarbeitung für Datenbildung gemäß einem vorbestimmten Format, Datenspeichern und Aufrufen der Daten. Ein Problem, das als Ergebnis dieser Serien von Verarbeitungsoperationen auftritt, besteht darin, daß die Zeichenerkennungsverarbeitung eine lange Zeitdauer erfordert.
  • Das Zeichensegmentieren gemäß dem Stand der Technik beinhaltet auch die nachstehend aufgeführten Probleme.
  • Im Falle des Zeichensegmentierverfahrens, das sich auf das Grenzfolgeverfahren stützt, entstehen folgende Probleme, weil alle Koordinatenwerte längs der Grenzen des Bildes gewonnen werden:
  • (a) Es entsteht ein großer Anstieg der erforderlichen Speicherkapazität im Speicher, der die Koordinatenwerte speichert.
  • (b) Im Falle, bei dem ein Zeichen eine Vielzahl isolierter Striche enthält (beispielsweise zwei Striche bei einem Zeichen, wie es zum Beispiel unter 409 in Fig. 20E gezeigt ist, oder fünf waagerechte Striche bei einem Zeichen, wie es zum Beispiel in Fig. 35 gezeigt ist), ist eine Entscheidungsverarbeitung erforderlich, um zu entscheiden, welche Striche zur Bildung eines Zeichens kombiniert sind.
  • (c) Im Falle, bei dem Zeichen zusammengesetzt sind aus einem oder mehreren Strichen und als ein Satz angeordnet sind, ist die Reihenfolge, die von dem Zeichen gefordert ist, und die Anordnung der Zeichen in der Form des Satzes nicht immer in Übereinstimmung. Als Ergebnis wird die Verarbeitung zum Neuordnen der Zeichenblöcke erforderlich.
  • Die vorstehenden Faktoren führen zu einem Anwachsen des Speichers vom Gerät und zu einem Anstieg der für die Zeichenerkennungsverarbeitung erforderlichen Zeit.
  • Im Falle des Zeichensegmentierungsverfahrens, das auf der Projektion fußt, kommen des weiteren folgende Probleme auf:
  • (d) Im Falle, bei dem kein sauberer Betrag an Raum zwischen den Zeichen vorhanden ist, anders als im Idealfall, der in Fig. 35 gezeigt ist, kann der Raum nicht herangezogen werden, und das Segmentieren läßt sich nicht ausführen. Dies tritt beispielsweise auf, wenn in einer horizontalen Zeichenreihe das ganz linke Ende eines Zeichens auf der linken Seite des ganz rechten Endes des unmittelbar vorangehenden Zeichens existiert.
  • Genauer gesagt, im Falle, bei dem sich beispielsweise die in Fig. 37 gezeigten Zeichen überlappen, nimmt die Projektion des Bildes das Ergebnis an, das ursprünglich aus drei Zeichen zusammengesetzt ist, die als Einzelzeichen segmentiert sind, wie durch den Rahmen 900 in Fig. 37 aufgezeigt. Ein rechteckiger Bereich, der eine weitere Teilung aus dem rechteckigen Bereich erfordert, der einmal segmentiert wurde, muß folglich aus dem Höhen-Breiten-Verhältnis beurteilt werden, und die Zeichensegmentierungsverarbeitung muß erneut für den rechteckigen Bereich angewandt werden, der eine weitere Teilung erfordert.
  • Des weiteren ist, im Falle, bei dem Zeichen, die der Segmentierung unterzogen werden, eine Zeichenreihe bilden, in der die Breite der Zeichen weitestgehend voneinander unterschiedlich ist, wie durch den englischen Text "HAWAII" in Fig. 38 gezeigt, das Segmentieren auf der Grundlage einer durchschnittlichen Zeichenbreite offensichtlich ungeeignet. Wenn darüber hinaus eine Zeichenfolge "AWA" in der Reihe "HAWAII" einheitlich durch senkrechte Linien für die Zeichenreihe segmentiert wird, wird sich ein Teil des Striches vom "W" mit dem Zeichen "A" längs eines Einzelzeichens mischen, und man erhält kein genaues Ergebnis. In diesem Falle führt dies nachfolgend zu ungenauer Zeichenerkennung.
  • Im Falle, bei dem benachbarte Zeichen einander berühren, wie in Fig. 39 gezeigt, können die beiden Zeichen nicht korrekt getrennt werden, selbst wenn das Grenzführungsverfahren angewandt wird.
  • Im Falle, bei dem fehlerhafte Zeichensegmentierung ausgeführt wird, wird der geschätzte Wert der Ähnlichkeit nicht sehr groß sein, selbst nicht für Zeichen, dessen Ähnlichkeitsgrad mit einer Kategorie, gewonnen aus der Ähnlichkeitsrechnung, maximal ist, und die Ergebnisse der Erkennung werden erfahrungsgemäß zweifelhaft. Dies stellt eine fehlerhafte Erkennung dar, die aufkommt, weil die Zeichenerkennungsverarbeitung ohne Korrektur der fehlerhaften Segmentierung ausgeführt wird.
  • Das Dokument EP-A-0 166 271 offenbart ein Gerät und ein Verfahren zur Erkennung laufender Handschrift durch Segmentieren von Zeichenbildblöcken und Ausführen einer Zeichenerkennung durch Vergleich ausgelesener Merkmale der segmentierten Zeichenbildblöcke mit Informationen, die in einem Zeichenwörterbuch gespeichert sind. Wenn ein einzelner Strich eines Zeichens nicht erkannt wird, wird dann ein zweiter Strich mit gespeicherten Zeichenwerten gemeinsam mit einer Kombination des ersten und zweiten Striches verglichen. Wenn diese noch erkannt werden, wird eine Patenterkennung bezüglich des dritten Strichs gemeinsam mit einer Kombination des zweiten und dritten Strichs und des ersten, zweiten und dritten Strichs ausgeführt.
  • Demzufolge ist es eine Aufgabe der vorliegenden Erfindung, ein Zeichenerkennungsverfahren zu schaffen, bei dem die Zeichenerkennung mit hoher Geschwindigkeit ausgeführt wird.
  • Nach einem ersten Aspekt der vorliegenden Erfindung vorgesehen ist ein Verfahren zur Zeichenerkennung, mit den Verfahrensschritten: Eingeben eines Bildoriginals; Segmentieren von Zeichenbildblöcken, die in das im Verfahrensschritt des Eingebens eingegebene Bildoriginal geschrieben sind; und Ausführen einer Zeichenerkennung durch Vergleichen ausgelesener Merkmale der segmentierten Zeichenbildblöcke mit Informationen, die in einem vorgeschriebenen Zeichenwörterbuch gespeichert sind, und Realisieren eines Gleichheitsgrades; gekennzeichnet durch die weiteren Verfahrensschritte: Einstellen von Identifikationsinformationen, die aufzeigen, ob jeder der segmentierten Zeichenbildblöcke eine Neusegmentierung auf der Grundlage der Ähnlichkeit erfordert; Erzeugen für eine Gruppe aufeinanderfolgender segmentierter Zeichenbildblöcke, die eine Neusegmentierung auf der Grundlage der Identifikationsinformation erfordern, einer Vielzahl neuer Zeichenbildblöcke unter Verwendung aller möglichen aufeinanderfolgenden Kombinationen segmentierter Zeichenbildblöcke in der Gruppe, die mit dem ersten segmentierten Zeichenbildblock in der Gruppe beginnt, und Unterziehen der Bedingung, daß jeder neue Zeichenbildblock eine Breite hat, die innerhalb eines vorbestimmten Wertes liegt; wiederholtes Zurückkehren zum Verfahrensschritt des Erkennens, um so die Zeichenerkennung bezüglich einer Vielzahl neuer Zeichenbildblöcke auszuführen; und Ausgeben eines Erkennungsergebnisses des neuen Zeichenbildblockes mit dem höchsten Ähnlichkeitsgrad unter der Vielzahl neuer Zeichenbildblöcke, die im Verfahrensschritt des Erzeugens erzeugt und der Zeichenerkennung im Verfahrensschritt des Erkennens unterzogen worden sind, als Erkennungsergebnis für einen neusegmentierten Bildblock.
  • Nach einem zweiten Aspekt der vorliegenden Erfindung vorgesehen ist ein Gerät zur Zeichenerkennung, mit: einem Eingabemittel zum Eingeben eines Bildoriginals; einem Segmentiermittel, das Zeichenbildblöcke segmentiert, die in das Bildoriginal vom Eingabemittel eingeschrieben sind; einem Erkennungsmittel, das eine Zeichenerkennung durch Vergleichen ausgelesener Merkmale der segmentierten Zeichenbildblöcke mit einer Information ausführt, die in einem vorhergeschriebenen Zeichenwörterbuch gespeichert sind, und Realisieren eines Ähnlichkeitsgrades; gekennzeichnet durch: ein Einstellmittel zum Einstellen einer Identifikationsinformation, die aufzeigt, ob jeder der segmentierten Zeichenbildblöcke eine Neusegmentierung auf der Grundlage des Ähnlichkeitsgrades erfordert; einem Erzeugungsmittel, das für eine Gruppe von aufeinanderfolgenden segmentierten Zeichenbildblöcken, die basierend auf der Identifikationsinformation eine Neusegmentierung erfordern, eine Vielzahl neuer Zeichenbildblöcke unter Verwendung aller möglichen aufeinanderfolgenden Kombinationen segmentierter Zeichenbildblöcke in der Gruppe erzeugt, die mit dem ersten segmentierten Zeichenbildblock in der Gruppe beginnen, der Bedingung unterzieht, daß jeder neue Zeichenbildblock eine Breite hat, die innerhalb eines vorbestimmten Wertes liegt; einem Steuermittel, das das Erkennungsmittel steuert, um eine Zeichenerkennung bezüglich der Vielzahl neuer Zeichenbildblöcke auszuführen; und mit einem Ausgabemittel, das ein Erkennungsergebnis des neuen Zeichenbildblockes mit dem höchsten Ähnlichkeitsgrad unter der Vielzahl neuer Zeichenbildblöcke, die vom Erzeugungsmittel erzeugt und der Zeichenerkennung vom Erkennungsmittel unterzogen worden sind, als Erkennungsergebnis für einen neusegmentierten Bildblock ausgibt.
  • Andere Merkmale und Vorteile der vorliegenden Erfindung werden aus der nachstehenden Beschreibung in Verbindung mit der beiliegenden Zeichnung deutlich, in der gleiche Bezugszeichen dieselben oder ähnliche Teile in allen Figuren bedeuten.
  • Die beiliegende Zeichnung, die einen Teil der Beschreibung bildet, veranschaulicht ein Ausführungsbeispiel nach der Erfindung und dient gemeinsam mit der Beschreibung der Erläuterung des Prinzips der Erfindung.
  • Fig. 1 ist ein Diagramm, das den Aufbau eines Gerätes zur Zeichenerkennung darstellt, das als ein erstes Vergleichsbeispiel dient;
  • Fig. 2 ist ein Blockdiagramm, das den detaillierten Aufbau sowohl einer CPU-Tafel als auch einer Zeichenerkennungstafel zeigt, die sich im Gerät befinden, das in Fig. 1 gezeigt ist;
  • Fig. 3 ist ein Ablaufdiagramm, das allgemeine Merkmale der Zeichenerkennungsverarbeitung gemäß dem ersten Vergleichsbeispiel darstellt;
  • Fig. 4 ist ein Ablaufdiagramm, das eine Zeichenerkennungsverarbeitung darstellt, die auf der Seite der CPU-Tafel ausgeführt wird;
  • Fig. 5 ist ein Ablaufdiagramm, das eine Interruptverarbeitung von der CPU 11 auf der Seite der CPU-Tafel darstellt;
  • Fig. 6 ist ein Ablaufdiagramm, das eine Zeichenerkennungsverarbeitung von einer CPU 21 auf der Seite der Zeichenerkennungstafel darstellt;
  • Fig. 7A und 7B sind Verarbeitungszeittafeln für einen Fall, bei dem eine Zeichenerkennung durch Übertragen eines segmentierten Zeichenbildes zu der Zeichenerkennungstafel ausgeführt wird, jeweils ein Zeichen nach dem anderen;
  • Fig. 8A und 8B sind Verarbeitungszeittafeln für einen Fall, bei dem eine Zeichenerkennung ausgeführt wird durch Übertragen eines segmentierten Zeichenbildes zu der Zeichenerkennungstafel, Zeile für Zeile;
  • Fig. 9 ist ein Blockdiagramm, das den Aufbau eines zweiten Vergleichsbeispiels nach der vorliegenden Erfindung darstellt;
  • Fig. 10 ist ein Ablaufdiagramm, das die allgemeinen Merkmale einer Zeichenerkennungsverarbeitung gemäß dem zweiten Vergleichsbeispiel darstellt;
  • Fig. 11 ist ein Ablaufdiagramm, das eine Zeichensegmentierungsverarbeitung durch Projektion darstellt;
  • Fig. 12 ist ein Ablaufdiagramm, das eine Zeichensegmentierungsverarbeitung durch Grenzführung darstellt;
  • Fig. 13A, 13B und 13C sind Diagramme zum Erläutern einer Zeichensegmentierung durch Grenzführung;
  • Fig. 14 ist ein Ablaufdiagramm, das eine Zeichensegmentierungsverarbeitung durch Grenzführung gemäß einem dritten Vergleichsbeispiel darstellt;
  • Fig. 15 ist ein Diagramm zum Erläutern einer Zeichensegmentierung durch Grenzführung gemäß dem dritten Vergleichsbeispiel;
  • Fig. 16 ist ein Blockdiagramm, das den Aufbau eines Gerätes zur Zeichenerkennung gemäß einem Ausführungsbeispiel nach der vorliegenden Erfindung darstellt;
  • Fig. 17 ist ein Ablaufdiagramm, das eine Zeichenerkennungsverarbeitung darstellt, bei der erneutes Ausführen der Zeichensegmentierung möglich ist, ausgeführt vom Gerät zur Zeichenerkennung gemäß Fig. 16;
  • Fig. 18 ist ein Diagramm, das die Art und Weise zeigt, in der eine Projektion in Horizontalrichtung schräg geschriebener Zeichen vorgenommen wird;
  • Fig. 19 ist ein Diagramm, das die Art und Weise zeigt, in der eine Projektion in Vertikalrichtung der schräg geschriebenen Zeichen vorgenommen wird;
  • Fig. 20A, 20B, 20C, 20D und 20E sind Diagramme zum Erläutern einer Zeichensegmentierung;
  • Fig. 34 ist ein Diagramm zum Erläutern einer Zeichensegmentierung durch das Grenzführungsverfahren gemäß dem Stand der Technik;
  • Fig. 35 ist ein Diagramm zum Erläutern der Zeichensegmentierung durch das Projektionsverfahren gemäß dem Stand der Technik;
  • Fig. 36 ist ein Ablaufdiagramm, das die Zeichenerkennungsverarbeitung gemäß dem Stand der Technik darstellt; und
  • Fig. 37, 38 und 39 sind Diagramme, die Beispiele von eingegebenen Zeichenmustern zeigen, die eine fehlerhafte Erkennung herbeiführen können.
  • Nachstehend anhand der beiliegenden Zeichnung beschrieben ist ein bevorzugtes Ausführungsbeispiel nach der vorliegenden Erfindung.
  • 25 Beschrieben ist nachstehend ein Ausführungsbeispiel eines Gerätes zur Zeichenerkennung, welches fehlerhaftes Erkennen durch Lösen der Probleme beseitigt, die zum Stand der Technik aufgezeigt wurden, und das eine Zeichenerkennungsverarbeitung ausführt, die kostengünstig ist und mit hoher Geschwindigkeit erfolgt.
  • [Erstes Vergleichsbeispiel (Fig. 1-8)]
  • Fig. 1 ist ein Diagramm, das die äußere Erscheinung eines Gerätes zur Zeichenerkennung gemäß einem ersten Vergleichsbeispiel zeigt. Wie in Fig. 1 gezeigt, enthält das Gerät eine Kathodenstrahlröhre 1 zur Anzeige der Ergebnisse der Zeichenerkennung sowie verschiedener Meldungen bezüglich der Zeichenerkennungsverarbeitung, eine Haupteinheit 2, die eine CPU-Tafel enthält zum Ausführen einer Verarbeitung wie der Zeichensegmentierung aus einem eingegebenen Bildoriginal, eine Tastatur (KB) 3 zur Eingabe verschiedener Befehle und dergleichen bezüglich der Zeichenerkennungsverarbeitung, eine Zeichenerkennungstafel 4, auf der Schaltungen zum Ausführen einer Zeichenerkennung in Hinsicht auf ein segmentiertes Zeichen montiert ist, einen Scanner 5 zum Lesen eines Bildoriginals, in das Zeichen geschrieben sind, eine Zeigereinrichtung 6, die, wie die Tastatur 3, der Eingabe verschiedener Befehle und dergleichen bezüglich der Zeichenerkennungsverarbeitung dient, und ein Diskettenlaufwerk (FDD) 7. Die Zeichenerkennungstafel 4 wird als Einbau in der Haupteinheit 2 verwendet.
  • Das charakteristische Merkmal des vorliegenden Gerätes besteht in der Tatsache, daß die CPU-Tafel zum Ausführen einer derartigen Verarbeitung, wie der Zeichensegmentierung aus dem Bildoriginal, gemeinsam mit der Zeichenerkennungstafel 4 in die Haupteinheit 2 eingebaut ist, diese durch einen Hochgeschwindigkeits-CPU-Bus (nicht dargestellt) miteinander verbunden sind und die Zeichenerkennungsverarbeitung ausgeführt wird, während die beiden Tafeln miteinander arbeiten.
  • Fig. 2 ist ein Blockdiagramm, das den detaillierten Aufbau sowohl der in die Haupteinheit 2 eingebauten CPU-Tafel als auch der Zeichenerkennungstafel 4 zeigt. In Fig. 2 bedeutet Bezugszeichen 8 eine CPU-Tafel, die über eine CPU 11 verfügt, um andere als die zur Zeichenerkennung im Zeichenerkennungsgerät Verarbeitungen und Steuerungen auszuführen, einen ROM (Nurlesespeicher) 12 zum Speichern von Programmen, die von der CPU 11 ausgeführt werden, einen RAM (Speicher mit wahlfreiem Zugriff) 13 zum Speichern von Textbildern und dergleichen, die vom Gerät zur Zeichenerkennung verarbeitet werden, und eine DMA- Steuerung 14 zum Steuern der Datenübertragung aus einem Scanner 5 an eine Zusatzspeichereinheit, wie das Diskettenlaufwerk (FDD), damit die Daten von der CPU 11 verarbeitet werden können. Bezugszeichen 15 bedeutet einen Kommunikationspuffer, der zur Zeichenerkennungstafel 4 gesandte Zeichen und von dieser empfangene Zeichen puffert.
  • Die Zeichenerkennungstafel 4 enthält eine Spezialzweck- Zeichenerkennungs-CPU 21 zum Steuern der gesamten Identifikationsrechnung und Erkennungsverarbeitung, einen ROM 22, in dem das Zeichenerkennungsprogramm gespeichert ist, einen RAM 23, der als Arbeitsbereich zur Zeichenerkennungsverarbeitung dient, die von der CPU 21 ausgeführt wird, eine Merkmalsausleseeinheit 24 zum Auslesen von Merkmalsmengen aus einem Zeichenbild, das im Kommunikationspuffer 15 gespeichert ist, einen Generalklassifizierer 25 zum Annähern von Kandidatenzeichen durch Ausführen einer Abstandsberechnung zwischen einem Merkmalsvektor, den die CPU 21 angibt, und zuvor gelernter Daten, ein Wörterbuch zur allgemeinen Klassifizierung 26, welches zuvor gelernte Daten speichert, und ein Wörterbuch zur detaillierten Klassifizierung 27, das gelernte Daten für genauere Abstandsberechnung in Hinsicht auf Kandidatenzeichen speichert, die vom Generalklassifizierer 25 gewonnen wurden.
  • In der zuvor beschriebenen Anordnung kommunizieren die CPU 11 und die Spezialzweck-Zeichenerkennungs-CPU 21 miteinander durch Erzeugen von Interrupts. Die CPU 11 erzeugt ein Mustererkennungs-Anforderungsinterrupt in der CPU 21, und die CPU 21 erzeugt ein Identifikationsabschlußinterrupt sowie einen Bilddaten-Übertragungsanforderungsinterrupt in der CPU 11.
  • Fig. 3 ist ein allgemeines Ablaufdiagramm, das die allgemeinen Merkmale der Zeichenerkennungsverarbeitung darstellt, die vom Zeichenerkennungsgerät gemäß dem vorliegenden Beispiel ausgeführt wird. Gemäß dem Ablaufdiagramm von Fig. 3 gibt die CPU 11 ein Bild in Schritt S1 ein und führt eine Zeichensegmentierungsverarbeitung in Schritt S2 aus. Als nächstes wird in Schritt S3 eine Verarbeitung zum Merkmalsauslesen von der Merkmalsausleseeinheit 24 und von der Spezialzweck-Zeichenerkennungs-CPU 21 ausgeführt, basierend auf Daten, die über den Kommunikationspuffer 15 gesandt wurden. Dann folgt Schritt S4, bei dem die Identifikationsverarbeitung vom allgemeinen Klassifizierer 25 und von der Spezialzweck- Zeichenerkennungs-CPU 21 ausgeführt wird. Danach werden die Daten, die das Ergebnis der Zeichenerkennung sind, zur CPU-Tafel 8 über den Kommunikationspuffer 14 gesandt, und die CPU 11 führt eine Nachverarbeitung und eine Verarbeitung zur Ausgabe von Ergebnissen in den Schritten S5 beziehungsweise S6 aus.
  • Als nächstes beschrieben ist die Verarbeitung, die von der CPU 11 und der CPU 21 ausgeführt wird, anhand der Ablaufdiagramme, die in den Fig. 4 bis 6 gezeigt sind, und der Zeittafel für die Verarbeitung, die in Fig. 7 gezeigt ist. Um die Beschreibung zu vereinfachen, wird angenommen, daß eine Vielzahl von Zeilen (n Zeilen) von handgeschriebenen Zeichen in einem einzigen Dokument als Textbild eingegeben werden.
  • (1) Von der CPU 11 (Fig. 4 und 5) ausgeführte Verarbeitung
  • Fig. 4 ist ein Ablaufdiagramm, das die prinzipielle Verarbeitung zeigt, die von der CPU 11 ausgeführt wird, und
  • Fig. 5 ist ein Ablaufdiagramm, das die Interruptverarbeitung darstellt. Schritte im Ablaufdiagramm von Fig. 4, die jenen anhand Fig. 3 beschriebenen identisch sind, sind mit denselben Schrittnummern bezeichnet.
  • In Schritt S1 von Fig. 4 wird ein Text zum Unterziehen der Zeichenerkennung eingelesen aus der Zusatzspeichereinheit wie aus dem Scanner 5 oder dem Diskettenlaufwerk (FDD) 7 über die DMA-Steuerung 4 und wird übertragen zum RAM 13.
  • Es folgt Schritt S20, bei dem die CPU 11 das im RAM 13 gespeicherte Bild der Zeilensegmentierung unterzieht, und dann Schritt 21, bei dem die CPU 11 die Segmentierung eines ersten Zeichens aus der ersten segmentierten Zeile ausführt. Die Zeitvorgabe dieser Operation entspricht t = t&sub1;&sub1; in der Zeittafel, die in Fig. 7 gezeigt ist.
  • Wenn das Segmentieren vom ersten Zeichen der ersten Zeile endet, schreitet die Verarbeitung fort zu Schritt S22, bei dem das Zeichenbild des ersten Zeichens von der segmentierten ersten Zeile übertragen wird zum Kommunikationspuffer 15, und dann zu Schritt S23, bei dem die CPU 11 einen Mustererkennungs- Anforderungsbefehl an die CPU 21 ausgibt. Die Zeitvorgabe dieser Operation entspricht t = T&sub1;&sub1; in der Zeittafel, die in Fig. 7 gezeigt ist. Nach Ausgabe dieses Befehls erzeugt die CPU 21 ein Interrupt in der CPU 11 asynchron in Hinsicht auf die Verarbeitung, die die CPU 11 ausführt.
  • Als nächstes wird in Schritt S24 untersucht, ob die Zeichensegmentierung für alle Zeilen beendet ist. Wenn hier bestimmt ist, daß die Zeichensegmentierung für alle Zeilen beendet ist, schreitet die Verarbeitung fort zu Schritt S5. Die Zeitvorgabe dieser Operation entspricht t = tnm in der in Fig. 7 gezeigten Zeittafel. Eine Nachverarbeitung wird in Schritt S5 ausgeführt, und die Ergebnisse der Erkennung werden angezeigt in Schritt S6 auf der Kathodenstrahlröhre 1. In Schritt S24 wird bestimmt, daß das Zeichensegmentieren noch nicht für alle Zeilen beendet ist, dann schreitet die Verarbeitung fort zu Schritt S25, bei dem das Segmentieren des nächsten Zeichens ausgeführt wird. Die Daten, die die Ergebnisse dieser Zeichensegmentierung aufzeigen, sind im RAM 13 gespeichert.
  • Als nächstes wird in Schritt S26 untersucht, ob eine "Maske" in einer solchen Weise angewandt wurde, daß eine Antwort nicht auf den Interrupt aus der CPU 21 erfolgt. Im Falle, bei dem die Maske nicht zur Anwendung kommt, wird die Zeichensegmentierungsverarbeitung nicht abgeschlossen, selbst wenn eine segmentierte Bilddaten-Übertragungsanforderung von der CPU 21 abgegeben wird. Es wird kein Zeichenbild vorhanden sein, das übertragen werden kann, und das Übertragungsanforderungssignal wird ignoriert. Wenn die Maske angewandt wurde, schreitet die Verarbeitung fort zu Schritt S27, bei dem die Maske beseitigt wird, und die Verarbeitung kehrt dann zu Schritt S24 zurück. Wenn die Maske nicht angewandt wurde, kehrt die Verarbeitung direkt zu Schritt S24 zurück.
  • Nachstehend beschrieben ist die Interruptverarbeitung.
  • Die Interruptverarbeitung wird erzeugt in asynchroner Weise in Hinsicht auf die zuvor beschriebene Verarbeitung, die die CPU 11 ausführt, nachdem das Zeichenbild des ersten Zeichens der ersten Zeile übertragen worden ist zur Zeichenerkennungstafel auf der Seite der CPU 21. Diese Interruptverarbeitung wird in der CPU 11 erzeugt, die als eine Gelegenheit des Bilddatenübertragungs-Anforderungsbefehls oder einer Zeichenerkennungs-Abschlußmeldung aus der CPU 21 erfolgt.
  • Wenn der Interrupt erzeugt ist, wird in Schritt S31 (Fig. 5) untersucht, ob der Interrupt, ausgegeben von der CPU 21, der Bilddatenübertragungs-Anforderungsbefehl oder die Zeichenerkennungs-Abschlußmeldung ist. Ein Interrupt dieser Art wird erzeugt bei t = tint1, t = tint2 oder bei t = tint3 und so weiter in der Zeittafel von Fig. 7.
  • Wenn der Interrupt die Zeichenerkennungs-Abschlußmeldung ist, dann schreitet die Verarbeitung fort zu Schritt S32, bei dem die Ergebnisse der Erkennung von der Zeichenerkennungstafel 4 angenommen werden über den Kommunikationspuffer 15. Der Interrupt wird dann abgesetzt. Wenn der Interrupt der Bilddatenübertragungs-Anforderungsbefehl ist, schreitet die Verarbeitung andererseits fort zu Schritt S33.
  • In Schritt S33 wird untersucht, ob die von der CPU 11 ausgeführte Zeichensegmentierung bereits für alle Zeilen beendet ist, und ob die Übertragung des Zeichenbildes abgeschlossen ist. Wenn bestimmt ist, daß die Zeichensegmentierung und Übertragung des Zeichenbildes abgeschlossen sind, dann wird ein Befehl zu dessen Bewirkung ignoriert und eine Interruptverarbeitung wird abgeschlossen. Die Zeitvorgabe dieser Operation entspricht der Zeit t = tintn gemäß der in Fig. 7 gezeigten Zeittafel. Wenn bestimmt ist, daß die Zeichensegmentierung und Übertragung des Zeichenbildes noch nicht abgeschlossen sind, dann schreitet die Verarbeitung fort zu Schritt S34.
  • In Schritt S34 wird das Zeichenbild vom nächsten segmentierten Zeichen, das im RAM 13 gespeichert ist, zum Kommunikationspuffer 15 übertragen. Es folgt Schritt S35, bei dem der Mustererkennungs-Anforderungsbefehl an die CPU 21 abgegeben wird. Die Zeitvorgabe dieser Operation entspricht beispielsweise t = T&sub1;&sub2; oder t = T&sub1;&sub3; und so weiter in der in Fig. 7 gezeigten Zeittafel.
  • Als nächstes wird in Schritt S36 überprüft, ob das nächste segmentierte Zeichenbild zur Übertragung im RAM 13 gespeichert ist. Wenn bestimmt ist, daß dieses Zeichenbild im RAM 13 gespeichert ist, dann ist die Interruptverarbeitung abgeschlossen. Wenn andererseits bestimmt ist, daß das nächste segmentierte Zeichenbild zur Übertragung noch nicht im RAM 13 gespeichert ist, dann schreitet die Verarbeitung fort zu Schritt 37. In diesem Schritt wird der Bilddaten- Übertragungsanforderungsbefehl aus der CPU 21 beurteilt, im Vergleich zur Geschwindigkeit der Zeichensegmentierungsverarbeitung schnell zu sein, die die CPU 11 ausführt, ein Interrupt wird aus der CPU 21 empfangen, eine Maske wird in einer solchen Weise angewandt, daß der Bilddaten- Übertragungsanforderungsbefehl nicht akzeptiert wird, und die Interruptverarbeitung ist dann beendet.
  • Im Falle dieses Ausführungsbeispiels wird angenommen, daß die CPU 11 ignoriert und nicht auf den Bilddaten- Übertragungsanforderungsbefehl antwortet, der der Anwendung der Maske folgt. Im Ergebnis wird die Übertragung des segmentierten Zeichenbildes ausgeführt durch eine Antwort auf einen Interrupt, der der Beseitigung der Maske folgt, und folglich wird eine Einstellung erfolgen, um so den Ausgleich der Zeichensegmentierungs-Verarbeitungsgeschwindigkeit und der Zeichenerkennungsgeschwindigkeit zu erreichen.
  • (2) Verarbeitung, die die CPU 21 ausführt (Fig. 6)
  • Die von der CPU 21 ausgeführte Verarbeitung, wobei die CPU auf der Zeichenerkennungstafel 4 eingerichtet ist, wird nun anhand des in Fig. 6 dargestellten Ablaufdiagramms beschrieben.
  • Die von der Zeichenerkennungstafel 4 ausgeführte Verarbeitung wird gestartet durch den Mustererkennungs- Anforderungsbefehl aus der CPU 11. Mit anderen Worten, in Schritt S41 wird die Verarbeitung anfänglich in einem Zustand des Wartens auf den Erkennungsanforderungsbefehl aus der CPU 11 ausgeführt und schreitet fort zu Schritt S32 in dem Moment, in dem der Anforderungsbefehl empfangen wird. In Schritt S42 wird das segmentierte Zeichenbild, übertragen zum Kommunikationspuffer 15 von CPU 11, empfangen, diese Merkmale dieses Zeichenbildes werden ausgelesen unter Verwendung der Merkmalsausleseeinheit 24, und die gewonnene Information wird im RAM 23 als ein Merkmalsvektor gespeichert.
  • Eine Vielzahl von Puffern (zwei oder mehr) zum Speichern von Merkmalsvektoren ist im RAM 23 verfügbar, und die Auslegung ist so, daß die Dateninkonsistenz nicht auftreten wird, wenn es einen Konflikt zwischen dem Zugriff aus der CPU 21 und dem Zugriff aus dem allgemeinen Klassifizierer 25 gibt. Jeder Puffer ist ausgestattet mit einem Kennzeichen [IFLGi, i = 1, N (N ≥ 2)]. Abhängig vom Wert des Kennzeichens kann bestimmt werden, ob die allgemeine Klassifizierungsverarbeitung basierend auf dem Merkmalsvektor, der im Puffer gespeichert ist, abgeschlossen ist, ob die Verarbeitung weitergeht oder ob die Verarbeitung noch nicht ausgeführt worden ist. Wenn ein neuer Merkmalsvektor im Puffer gespeichert worden ist, wird der Wert des Kennzeichens von der CPU 21 eingestellt. Wenn die allgemeine Klassifizierungsverarbeitung durch den allgemeinen Klassifizierer 25 begonnen oder beendet wird, erfolgt das Neuschreiben des Wertes vom Kennzeichen durch den allgemeinen Klassifizierer 25.
  • Wenn das Merkmalsauslesen endet, schreitet die Verarbeitung fort zu Schritt S43, bei dem ein Interrupt in der CPU 11 erzeugt wird, und ein Bilddaten-Übertragungsanforderungsbefehl wird ausgegeben, um das nächste Zeichenbild anzufordern. Zur selben Zeit wird der allgemeine Klassifizierer 25 in Schritt S44 angewiesen, die Anpassung zwischen dem gewonnenen Merkmalsvektor und den Daten herbeizuführen, die im Wörterbuch für allgemeine Klassifizierung 26 gespeichert sind.
  • Danach wartet die CPU 21 in Schritt S45 auf den Mustererkennungs-Anforderungsbefehl aus der CPU 11 und meldet einen Abschluß der allgemeinen Klassifizierungsverarbeitung aus dem allgemeinen Klassifizierer 25. Wenn diese Meldung des Abschlusses von der allgemeinen Klassifizierungsverarbeitung empfangen wird, schreitet die Verarbeitung fort zu Schritt S52, bei dem ein endgültiges Kandidatenzeichen bestimmt wird durch Ausführen einer detaillierten Identifikationsverarbeitung in Hinsicht auf Kandidatenzeichen (dies können eines, zwei oder mehrere sein), für die es eine Möglichkeit gibt, das Ergebnis der Zeichenerkennung zu sein, ausgelesen von der allgemeinen Klassifizierungsverarbeitung. Als nächstes schreitet die Verarbeitung fort zu Schritt S53, bei dem bestätigt wird, daß die unmittelbar vorhergehende Interruptverarbeitungsoperation auf der Seite der CPU 11 beendet ist. Als nächstes wird in Schritt S54 das Ergebnis der Zeichenerkennung an den Kommunikationspuffer 15 abgegeben, und dann wird ein Interrupt in der CPU 11 erzeugt, und die Zeichenerkennungs- Beendigungsmeldung wird in Schritt S55 ausgegeben. Danach schreitet die Verarbeitung fort zu Schritt S56, bei dem überprüft wird, ob es einen Wartebefehl gibt. Wenn bestimmt ist, daß es einen Befehl zum Warten gibt, dann kehrt die Verarbeitung zu Schritt S45 zurück; anderenfalls ist die Verarbeitung abgeschlossen. Im aktuellen Betrieb des Gerätes bereitet das System die nächste Zeichenerkennungsoperation vor, und der Wartezustand auf einen Befehl in Schritt S41 wird erzielt, selbst wenn es keinen Wartebefehl gibt, sofern die Stromversorgung nicht abgeschaltet ist.
  • Wenn der Mustererkennungs-Anforderungsbefehl in Schritt S45 empfangen ist, dann schreitet die Verarbeitung fort zu Schritt S46, bei dem Merkmalsauslesen in Hinsicht auf das segmentierte Zeichenbild ausgeführt wird, das die CPU 11 übertragen hat, genau so wie in Schritt S42. Ein Interrupt wird dann in der CPU 11 in Schritt S47 erzeugt, und die CPU 11 überprüft, ob eine Maske angewandt wurde. Wenn die CPU 11 bestätigt, daß eine Maske angewandt wurde, wartet die Verarbeitung, bis die Maske beseitigt ist. Wenn die CPU bestätigt, daß die Maske nicht angewandt wurde, schreitet die Verarbeitung andererseits direkt zu Schritt S48, und der Bilddaten-Übertragungsanforderungsbefehl wird ausgegeben, um das nächste Zeichenbild anzufordern.
  • Als nächstes wird in Schritt S49 das Kennzeichen im Puffer vom RAM 23, das den Merkmalsvektor speichert, untersucht, und es wird überprüft, ob der allgemeine Klassifizierer 25 arbeitet. Wenn bestimmt ist, daß die Verarbeitung weitergeht, dann wird auf den Abschluß der allgemeinen Klassifizierungsverarbeitung gewartet. Wenn dies abgeschlossen ist, schreitet die Verarbeitung fort zu Schritt S50, bei dem eine allgemeine Klassifizierungsverarbeitung basierend auf einem neuen Merkmalsvektor angefordert wird vom allgemeinen Klassifizierer 25, wie im Schritt S44.
  • Es folgt der Schritt S51, bei dem überprüft wird auf der Grundlage des Kennzeichens vom Puffer im RAM 23, in dem der Merkmalsvektor gespeichert ist, ob es Daten gibt, für die die allgemeine Klassifizierungsverarbeitung beendet ist. Wenn bestimmt ist, daß es Daten gibt, für die die Verarbeitung abgeschlossen ist, dann schreitet die Verarbeitung fort zu Schritt S52; anderenfalls kehrt die Verarbeitung zu Schritt S45 zurück.
  • Gemäß diesem Beispiel führen somit die CPU 11 und die CPU 21 die Zeichensegmentierungsverarbeitung und die Zeichenerkennungsverarbeitung unabhängig und asynchron parallel aus. Im Ergebnis kann die Zeichenerkennung in effizienter Weise und mit hoher Geschwindigkeit ausgeführt werden. Da des weiteren die erforderlichen Daten für diese beiden Verarbeitungsoperationen gesendet und empfangen werden durch Interrupts, ist kein Spezialzweckprozessor zur Kommunikation erforderlich. Dies ermöglicht es, die Gesamtkosten des Gerätes zu senken.
  • In der oben beschriebenen Verarbeitung werden die segmentierten Zeichenbilder aus der CPU 11 zur Seite der Zeichenerkennungstafel in Einheiten jeweils eines Zeichens ausgeführt. Jedoch liegt dies der Erfindung keinerlei Beschränkung auf. Beispielsweise können dies segmentierten Zeichenbilder in Einheiten jeweils einer Zeile übertragen werden. In einem solchen Falle beziehen sich die Verarbeitungsoperationen, die die CPU 11, die CPU 21 und der allgemeine Klassifizierer 25 ausführen, auf die in der Zeittafel von Fig. 8 dargestellten Weise.
  • Die in Fig. 8 gezeigte Verarbeitung setzt die Tatsache voraus, daß der RAM 23 ausgestattet ist mit einem Puffer, der Merkmalsvektoren gemäß den Zeichen wenigstens einer Zeile speichert.
  • Auf der vorstehenden Prämisse überträgt die CPU 11, gefolgt vom Abschluß der Zeichensegmentierung der ersten Zeile zur Zeit t = t&sub1;, die erste Zeile segmentierter Zeichenbilder zum Kommunikationspuffer 15 zur Zeit t = T&sub1; und gibt einen Mustererkennungs-Anforderungsbefehl gemäß der in Fig. 8 gezeigten Zeittafel aus. Die CPU 21 empfängt die Zeichenbilder und befiehlt dem allgemeinen Klassifizierer 25, die allgemeine Klassifizierungsverarbeitung auszuführen, nachdem das Merkmalsauslesen des ersten Zeichens des empfangenen Bildes beendet ist (Zeit t = T&sub1;').
  • Während der Totzeit bis zum Ende der allgemeinen Klassifizierungsverarbeitung führt die CPU 21 Merkmalsauslesen der Zeichenbilder vom zweiten Zeichen an aus und speichert die Merkmalsvektoren im leeren Puffer vom RAM 23. Danach führt die CPU 21 eine Zeichenbild-Merkmalsauslese, allgemeines Klassifizieren und detailliertes Klassifizieren aus, während die Suche der Werte des Kennzeichens (IFLGi), vorgesehen im Puffer vom RAM 23, in der Weise erfolgt, daß die Verarbeitungswartezeit der CPU 21 minimiert wird, und während das Überwachen in einer solchen Weise ausgeführt wird, daß sich erforderlicher Leerraum nicht im Puffer vom RAM 23 entwickelt. In dem Moment (Zeit t = T&sub2;), wo das Auslesen von Merkmalen aller Zeichenbilder einer Zeile beendet ist, wird ein Bilddaten- Übertragungsanforderungsbefehl an die CPU 11 abgegeben. Als Reaktion darauf überträgt die CPU 11 die nächste Zeile der Zeichenbilder zum Kommunikationspuffer 15 und gibt gleichzeitig den Mustererkennungs-Anforderungsbefehl zur Zeit t = T&sub3; ab. Bis der Mustererkennungs-Anforderungsbefehl empfangen ist, werden die allgemeine Klassifizierungsverarbeitung und die detaillierte Identifikationsverarbeitung von der Zeichenerkennungstafel 4 unter Verwendung der nicht verarbeiteten Merkmalsvektoren ausgeführt, die im RAM 23 übriggeblieben sind.
  • Wenn die CPU 21 den Mustererkennungs-Anforderungsbefehl empfängt, werden Merkmalsvektoren nacheinander mit einem Zeichen zur Zeit ausgelesen in Hinsicht auf die nächste Zeile der Zeichenbilder, um so die Verarbeitungswartezeit der CPU zu minimieren, und diese Vektoren werden im Puffer vom RAM 23 gespeichert. (Um beispielsweise die optimale Verwendung der CPU- Ressource zu erreichen, wird die CPU- Inanspruchnahmezeit einem Verhältnis von 2 : 1 : 1 zugeordnet in Hinsicht auf das Merkmalsauslesen, allgemeines Klassifizieren beziehungsweise detailliertes Identifizieren, bis der leere Pufferraum im RAM 23 beseitigt ist).
  • Wenn die Zeichenerkennung der ersten Zeile dank der vorstehenden Verarbeitung endet (Zeit t = T&sub4;), wird das Ergebnis einer Zeile der Zeichenerkennung an den Kommunikationspuffer 15 abgegeben, ein Interrupt wird in der CPU 11 erzeugt, und die Zeichenerkennungs-Abschlußmeldung wird ausgegeben.
  • [Zweites Vergleichsbeispiel (Fig. 9-13))
  • Die Verarbeitung wird nun beschrieben, bei der die Zeichensegmentierung genauer ausgeführt wird auch in Hinsicht auf die Zeichenbilder einer Vielzahl von handschriftlichen Eingaben. In diesem Ausführungsbeispiel kann auch ein Zeichenerkennungsgerät mit einem in Verbindung mit Fig. 1 beschriebenen Aufbau verwendet werden. Jedoch wird ein Zeichenerkennungsgerät mit einfacherem Aufbau der Art, die in Fig. 9 gezeigt ist, verwendet, um die Beschreibung von Abschnitten zu vereinfachen, die nicht der Mittelpunkt der Zeichensegmentierungsverarbeitung sind, die der Brennpunkt der Beschreibung ist.
  • Fig. 9 ist ein Blockdiagramm, das den Aufbau des Zeichenerkennungsgerätes zeigt, das ein typisches Ausführungsbeispiel des vorliegenden Beispiels ist. Wie in Fig. 9 gezeigt, enthält das Gerät eine CPU 101 zur Eingabe eines Bildes, zur Ausleseverarbeitung, wie Segmentieren eines Zeichenbildes, und zum Steuern des gesamten Gerätes, eine Tastatur (KB) 102 zur Eingabe von Zeichen und zum Durchführen von Revisionen, eine Zeigereinrichtung (PD) 103, beispielsweise eine Maus, einen ROM 104 zum Speichern von Programmen, die die CPU 101 ausführt, einen RAM 105 zum Speichern von Zeichenbildern, von Ergebnissen der Zeichensegmentierung und von Ergebnissen der Erkennung, eine Ähnlichkeitsverarbeitungseinheit 106 zum Errechnen der Ähnlichkeit mit einem jeden Zeichen betreffs segmentierter Zeichenbilder, einen Bildscanner (SCAN) 107 zum Lesen von Bildern, eine Schnittstelle (I/F) 108 des Bildscanners und eine Anzeige 109 zur Anzeige von Ergebnissen der Zeichenerkennung.
  • Die Verarbeitung zum Segmentieren eines Zeichenbildes, ausgeführt vom Zeichenerkennungsgerät, das aufgebaut ist in der zuvor beschriebenen Weise, ist nun nachstehend anhand der Ablaufdiagramme beschrieben, die in den Fig. 10 bis 12 gezeigt sind. Ein Beispiel wird in Betracht gezogen, bei dem die Erkennung angewandt wird auf quergeschriebenen Text, wie einen japanischen Satz, bei dem umschriebene Rechtecke eines Zeichenbildes eines jeden Zeichens den Satz bilden, angenähert an ein Quadrat, und der Zeichenabstand feststehend ist.
  • In Schritt S101 in Fig. 10 wird ein primäres Segmentieren ausgeführt, bei dessen Verwendung vom Projektionsverfahren Gebrauch gemacht wird. Die Einzelheiten der primären Segmentierungsverarbeitung sind nachstehend anhand des in Fig. 11 dargestellten Ablaufdiagramms beschrieben.
  • Als Beispiel zum zuvor beschriebenen Stand der Technik wird zuerst ein rechteckiger Bereich, der eine Zeilenreihe darstellt, in Schritt S201 segmentiert, dann wird ein Zeichenblock in Schritt S202 segmentiert. Als nächstes wird die minimale Zeichenhöhe innerhalb der Zeile in Schritt S203 gefunden, und diese Höhe wird dargestellt durch "maxh". In Schritt S204 wird untersucht, ob sich ein Zeichenblock einem Rechteckbereich einer Seite annähert, von der die Länge "maxh" ist. Wenn bestimmt ist, daß sich der Zeichenblock einem Rechteckbereich einer Seite annähert, von der die Länge "maxh" ist, dann schreitet die Verarbeitung fort zu Schritt S205, in dem dieser Zeichenblock bestimmt wird als Zeichenblock einer Standardgröße. Wenn andererseits nicht bestimmt ist, daß sich der Zeichenblock einem Rechteckbereich einer Seite annähert, von der die Länge "maxh" ist, dann schreitet die Verarbeitung fort zu Schritt S206. Hier wird untersucht, ob das Ergebnis des Zusammensetzens dieses Zeichenblockes mit einem benachbarten Zeichenblock zu einem Rechteckbereich einer Seite führt, von dem die Länge "maxh" ist. Wenn bestimmt ist, daß ein Rechteckbereich einer Seite, die sich der Länge "maxh" nähert, herausgefunden wurde durch Zusammensetzen mit dem benachbarten Zeichenblock, dann schreitet die Verarbeitung fort zu Schritt S207, in dem der zusammengesetzte Block angenommen wird als ein Zeichenblock der Standardgröße. Wenn andererseits bestimmt ist, daß der Rechteckbereich einer Seite, der sich "maxh" annähert, nicht durch das Zusammensetzen mit den benachbarten Zeichenblock gefunden wird, dann schreitet die Verarbeitung fort zu Schritt S208. Letztlich wird in Schritt S208 die durchschnittliche Breite des Zeichens der Standardgröße errechnet, und diese wird als Breite des Standardzeichens angenommen.
  • In Schritt S102 in Fig. 10 wird der Wert der Breite eines jeden Zeichenblockes ausgelesen, um zu bestimmen, ob die in Schritt S101 segmentierten Zeichen irgend etwas Zweifelhaftes enthalten. Dann werden in Schritt S103 die Breite (Wi: i = 1, n) eines jeden Zeichenblockes und die Standardzeichenbreite (SW) miteinander verglichen. Wenn bestimmt ist, daß der Wert Wi hinreichend groß im Vergleich zum Wert von SW ist, dann wird beurteilt, daß die Neuausführung einer Zeichensegmentierung notwendig ist, und die Verarbeitung schreitet zu Schritt S104, so daß eine sekundäre Segmentierung ausgeführt werden kann. Die sekundäre Segmentierung verwendet das Grenzführungsverfahren. Wenn bestimmt ist, daß die Werte von Wi und SW sich nicht stark unterscheiden, dann wird beurteilt, daß das Neuausführen der Zeichensegmentierung nicht erforderlich ist, und die Verarbeitung wird abgeschlossen.
  • Die Einzelheiten der sekundären Segmentierungsverarbeitung in Schritt S104 sind nachstehend beschrieben anhand des Ablaufdiagramms von Fig. 12 und der eingegebenen Zeichenreihe, die in diesem Beispiel in Fig. 13 gezeigt ist. In Fig. 13 bedeutet Bezugszeichen 201 die Standardzeichenbreite (SW), 202-204 bedeuten neusegmentierte Blöcke und B1-B7 stellen Zeichenstriche dar.
  • Zuerst werden in Schritt S301 in Fig. 12 alle die Zeichenstriche, die im neusegmentierten Block 202 von Fig. 13A vorhanden sind, gewonnen durch das Grenzführungsverfahren, das im Beispiel zum Stand der Technik bereits beschrieben ist. Die Zeichenstriche (CS), die nach diesem Verfahren gewonnen werden, sind B1-B7. In Schritt S302 wird überprüft, ob es zwei oder mehr Zeichenstriche in dem neue segmentierten Block 202 gibt. Wenn die Antwort JA lautet, dann schreitet die Verarbeitung fort zu Schritt S303. Die Verarbeitung wird abgeschlossen, wenn es nur einen Zeichenstrich CS gibt.
  • In Schritt S303 wird ein Zeichenstrich (B2) gefunden, dessen rechtes Ende einen Orts-Offset um die Länge der Standardzeichenbreite (SW) vom linken Ende des neusegmentierten Blockes 202 aufweist. Als nächstes wird in Schritt S304 beurteilt, daß ein Zeichen in Verbindung mit einem Zeichenstrich (B1) gefunden wurde, dessen rechtes Ende sich links vom Zeichenstrich (B2) befindet, der in Schritt S303 gefunden wurde. Als nächstes wird in Schritt S305 eine Zeichensegmentierungsverarbeitung erneut ausgeführt im neusegmentierten Block 203 [Fig. 13B], aus dem die Zeichenstriche (B1 und B2) ausgeschlossen werden, die in Schritt S304 beurteilt wurden, ein Zeichen gebildet zu haben. Zu dieser Zeit wird das linke Ende des neusegmentierten Blockes 203 herangezogen als linkes Ende des ganz linken Zeichenstriches (B4) unter den restlichen Zeichenstrichen (B3-B7).
  • Als nächstes wird in Schritt S306 erneut untersucht, ob die Breite des neusegmentierten Blockes 203 hinreichend größer als die Standardbreite (SW) 201 ist. Wenn bestimmt wird, daß die Breite des neusegmentierten Blockes 203 hinreichend groß im Vergleich mit SW ist, dann kehrt die Verarbeitung zu Schritt S302 zurück, und die Segmentierungsverarbeitung wird erneut ausgeführt. Wenn andererseits bestimmt ist, daß die Breite des neusegmentierten Blockes 203 nicht hinreichend groß ist verglichen mit SW, dann ist die Verarbeitung abgeschlossen.
  • Durch Ausführen der vorstehenden Verarbeitung wird beurteilt, daß die in Fig. 13A gezeigte Zeichenreihe eine ist, bei der ein Einzelzeichen 201 in Fig. 15 gebildet wird von B1 und B2, das Einzelzeichen 251 in Fig. 15 wird gebildet durch B3 und B4, und das Einzelzeichen 202 in Fig. 15 wird gebildet durch B5 bis B7.
  • Gemäß diesem Beispiel wird somit eine übliche Zeichensegmentierung ausgeführt nach dem Projektionsverfahren, und das Grenzführungsverfahren wird nur auf Abschnitte angewandt, bei denen das Zeichensegmentieren zweifelhaft ist. Dies ermöglicht eine hochgenaue Zeichensegmentierung, die selbst in Hinsicht auf Text möglich ist, bei dem es eine Unterschneidung gibt. Selbst in einem Falle, bei dem es notwendig wird, das Grenzführungsverfahren anzuwenden, muß nur die Links-Rechts-Lagebeziehung der Zeichen herangezogen werden in Hinsicht auf das Beurteilen der Striche, die die Zeichen bilden. Im Ergebnis wird die Verarbeitung, die dem Strichauslesen folgt, reduziert und die Gesamtverarbeitungsgeschwindigkeit wird erhöht.
  • [Drittes Vergleichsbeispiel (Fig. 14, 15)]
  • Ein anderes Beispiel sekundärer Segmentierungsverarbeitung ist im zweiten Beispiel dargelegt, das nachstehend anhand des Ablaufdiagramms von Fig. 14 und anhand der eingegebenen Zeichenreihe von Fig. 15 beschrieben wird. In Fig. 15 bedeutet Bezugszeichen 201 die Standardzeichenbreite (SW) und Bezugszeichen 202 bedeutet den einen neusegmentierten Zeichenblock. Um die Positionen von Pixeln zu spezifizieren, die ein Zeichen bilden, wird ein orthogonales Koordinatensystem herangezogen, bei dem das obere linke Ende vom neusegmentierten Block 202 der Ausgangspunkt ist, die x-Achse in horizontaler Richtung und die y-Achse in vertikaler Richtung verläuft. Diese Beispiel verwendet das Zeichenerkennungsgerät, das im zweiten Beispiel beschrieben wurde, und folglich wird eine Beschreibung des Gerätes nicht wiederholt. Die anderen Schritte in der Zeichenerkennungs-Verarbeitungsoperation sind mit jenen des zweiten Beispiels identisch und müssen nicht noch einmal beschrieben werden.
  • Zuerst wird in Schritt S401 in Fig. 14 ein Punkt-Offset zur Rechten des oberen linken Endes vom neusegmentierten Block 202 um die Standardbreite (SW) 201 gewonnen, und dieser Punkt wird dargestellt durch P1 [xP1 (= SW), yP1 (= 0)]. Dies wird als Ausgangspunkt der Grenzführung angenommen, und P1 stellt den Führungspunkt dar. Nun wird in Schritt S402 untersucht, ob P1 das untere Ende des neusegmentierten Blockes 202 erreicht hat (das heißt, ob der Endpunkt der Zeichensegmentierung erreicht ist). Wenn hier bestimmt ist, daß P1 das untere Ende des neusegmentierten Blockes 202 erreicht hat, ist die Verarbeitung abgeschlossen. Wenn bestimmt ist, daß P1 noch nicht das untere Ende des neusegmentierten Blockes 202 erreicht hat, dann schreitet die Verarbeitung fort zu Schritt S403.
  • In Schritt S403 wird untersucht, ob das Pixel bei P1 ein Pixel ist, das ein Zeichenbild bildet. Wenn hier bestimmt ist, daß das Pixel bei P1 ein ein Zeichen bildendes Pixel ist, dann schreitet die Verarbeitung fort zu Schritt S405; anderenfalls schreitet die Verarbeitung fort zu Schritt S404, die Position von P1 wird vertikal nach unten um ein Pixel verschoben und die Verarbeitung kehrt zu Schritt S402 zurück. In Schritt S405 wird das Pixel, das das bei Schritt S403 festgestellte Zeichen bildet, als P2 (xP2, yP2) gespeichert. Hier stellt P2 einen Punkt dar, bei dem das Pixel, das das Zeichen bildet, festgestellt ist, nämlich den Grenzführungsstartpunkt eines aktuellen Zeichenstriches. Es folgt Schritt S406, bei dem die im Beispiel nach dem Stand der Technik beschriebene Grenzführung von der Stelle des Punktes P2 ausgeführt wird. Von dieser Stelle ändert sich der Wert von P2 längs der Grenze des Zeichenstriches. Gemäß der Beschreibung zum Beispiel nach dem Stand der Technik wird die Grenze im Uhrzeigersinn vom Gegenstandspunkt an gesucht. Die Führung wird ausgeführt in einer Weise, die durch die gestrichelte Linie 251 in Fig. 15 aufgezeigt ist.
  • Da der Originalgegenstand dieses Ausführungsbeispiels die effiziente Segmentierungsverarbeitung ist, wird die Anordnung so, daß die Grenzführungsverarbeitung mit feststehender Grenze vorgesehen ist, wobei die Führung nicht ausgeführt wird, wenn die Grenze überschritten ist. Im Falle dieses Ausführungsbeispiels ist der Grenzwert derjenige, bei dem die x-Koordinate (xP1) von P1 gleich der x-Koordinate am rechten Ende des neusegmentierten Blockes 202 wird (das heißt dort, wo P1 das rechte Ende des neusegmentierten Blockes 202 erreicht). Alternativ wird der Grenzwert derjenige, bei dem die x- Koordinate (xP1) von P1 ± SW/2 von der x-Koordinate (xP2) von P2 wird.
  • In Schritt S408 wird untersucht, ob P1 den Grenzwert der Grenzführung überschritten hat. Wenn die Antwort JA lautet, dann schreitet die Verarbeitung fort zu Schritt S408, und die Führung wird erneut von P2 aus im Gegenuhrzeigersinn ausgeführt. Wenn bestimmt ist, daß der Grenzwert nicht überschritten ist, schreitet die Verarbeitung zu Schritt S411, und es wird überprüft, ob die x-Koordinate (xP1) von P1 gleich der x- Koordinate (xP2) von P2 wird. Wenn xP1 + xP2, schreitet die Verarbeitung fort zu Schritt S413 und die Führung wird fortgesetzt. Wenn xP1 = xP2 gilt, kehrt die Verarbeitung zu Schritt S402 zurück.
  • In Schritt S409 wird erneut bestimmt, ob P1 den Grenzwert der Grenzführung überschritten hat. Wenn bestimmt ist, daß der Grenzwert überschritten ist, dann schreitet die Verarbeitung fort zu Schritt S410, es wird beurteilt, daß die Segmentierungsverarbeitung nicht ausgeführt werden kann, und die Verarbeitung wird aufgehoben. Wenn beurteilt ist, daß der Grenzwert nicht überschritten ist, dann schreitet andererseits die Verarbeitung fort zu Schritt S412, bei dem bestimmt wird, ob die x-Koordinate (xP1) von P1 gleich der X-Koordinate (xP2) von P2 ist. Wenn xP1 ≠ xP2 gilt, dann schreitet die Verarbeitung fort zu Schritt S414, und die Führung wird fortgesetzt. Wenn xP1 = xP2 gilt, dann kehrt die Verarbeitung zu Schritt S402 zurück.
  • Durch Ausführen der vorstehenden Verarbeitung wird letztlich eine Zeichensegmentierungslinie der unter 252 in Fig. 15 gezeigten Art gewonnen.
  • Somit wird gemäß diesem Beispiel nicht nur die Zickzack- Segmentierungslinie 215 in Fig. 15 erreicht, sondern es wird auch möglich, die Grenzführung für das Minimum so zu halten, daß die Führungsverarbeitung minimal gehalten werden kann.
  • Das vorstehende Beispiel wurde beschrieben unter Bezug auf ein Verfahren, das die Grenzführung und die Projektion als Segmentierungsverfahren anwendet. Jedoch legt dies der vorliegenden Erfindung keine Beschränkung auf. Die vorliegende Erfindung ist darüber hinaus nicht auf das vorstehende Ausführungsbeispiel in Hinsicht auf die vorbeschriebene Form eines Dokuments beschränkt, wie auf die Weise, in der das Dokument aufgebaut ist.
  • Obwohl das vorstehende Beispiel beschrieben wurde für einen Fall, bei dem die Segmentierungsverarbeitung von der CPU 101 ausgeführt wird, legt dies der Erfindung keinerlei Beschränkung auf. Beispielsweise ist es möglich, ein Gerät mit einem Prozessor zu verwenden, der für die Ausführung der Segmentierungsverarbeitung vorgesehen ist, wie ein Gerät mit einem Aufbau, das zum ersten Ausführungsbeispiel beschrieben wurde.
  • [Erste Ausführungsbeispiel (Fig. 16-20)]
  • Es wird nun die Verarbeitung beschrieben, bei der Fehlerkennung aus der Zeichensegmentierung auftritt, die erneut automatisch korrigiert wird, selbst wenn Serien von Erkennungsverarbeitungsoperationen abgeschlossen sind. Die Zeichenerkennungsoperation, die in diesem Ausführungsbeispiel verwendet wird, hat im wesentlichen denselben Aufbau wie diejenige des Gerätes, das im zweiten und dritten Vergleichsbeispiel verwendet wird, und folglich sind dieselben Elemente mit gleichen Bezugszeichen versehen und brauchen nicht erneut beschrieben zu werden.
  • < Beschreibung von diesem Ausführungsbeispiel speziellen Elementen (Fig. 16)>
  • Fig. 16 ist ein Blockdiagramm, das den Aufbau eines Zeichenerkennungsgerätes zeigt, das in diesem Ausführungsbeispiel angewandt wird. Das Gerät enthält eine Segmentierungseinheit 110 zum Segmentieren von Zeichen aus einem Bild eines Zeichens zur Zeit. Der RAM 105 hat einen Zeichenbild- Speicherbereich 111 zum Speichern eines Zeichenbildes, das der Bildscanner 107 gelesen hat, einen Segmentierungsinformations- Speicherbereich 112 zum Speichern des Ausgangssignals von der Zeichensegmentierungseinheit 110, und eine Erkennungsergebnis- Speichereinheit 113, die das Ausgangssignal der Ähnlichkeitsrecheneinheit 106 speichert.
  • < Beschreibung der Zeichenerkennungsverarbeitung (Fig. 17-19)>
  • Die unter Verwendung des Zeichenerkennungsgerätes ausgeführte Zeichenerkennungsverarbeitung mit dem zuvor beschriebenen Aufbau wird nun anhand des Ablaufdiagramms von Fig. 17 beschrieben.
  • Zuerst wird in Schritt S501 das Zeichenbild aus dem Bildscanner 107 eingegeben und im Zeichenbild-Speicherbereich 111 gespeichert. Als nächstes segmentiert in Schritt S502 die Segmentierungseinheit 110 Zeichen aus dem gespeicherten Zeichenbild eines Zeichens zur Zeit. Obwohl es keine spezielle Beschränkung bezüglich des Verfahrens der Segmentierung gibt, wird das Verfahren des Heranziehens von Projektionen der Zeichenbilder in diesem Ausführungsbeispiel verwendet.
  • Fig. 18 ist ein Diagramm, das die Art und Weise zeigt, in der die Segmentierung gemäß dem Projektionsverfahren ausgeführt wird. In Fig. 18 bedeutet Bezugszeichen 301 ein eingegebenes Textbild, und Bezugszeichen 302 bedeutet eine Projektionsebene. Die Projektion wird in Horizontalrichtung herangezogen, wenn das eingegebene Bildoriginal ein quergeschriebenes Dokument ist, und in Vertikalrichtung, wenn das eingegebene Bildoriginal ein vertikal geschriebenes Dokument ist. Im Falle von Fig. 18 ist das Dokument ein quergeschriebenes, und folglich werden Projektionen 304 von Zeichenbildern 303 herangezogen, um rechtwinklige Bereiche 305 zu erhalten, die Ein-Zeilen- Zeichenreihen darstellen. Fig. 19 ist ein Diagramm, das die Art und Weise zeigt, in der Projektionen in Vertikalrichtung herangezogen werden in Hinsicht auf den gewonnenen rechteckigen Bereich 305. Wenn die Projektion in Horizontalrichtung erzielt wird, erfolgt eine Drehung der Projektionsebene dann um 90º, und eine Projektion wird herangezogen, woraufhin Zeichenrechtecke 351 gewonnen werden, und Zeichen werden ein Zeichen nach dem anderen segmentiert. Das Ergebnis dieser Segmentierung wird an den Segmentierungsinformations-Speicherbereich 112 abgegeben.
  • Die Merkmale werden aus den Zeichenbildern der Zeichenrechtecke 351 in Schritt S503 ausgelesen, und eine Ähnlichkeitsrechnung wird ausgeführt von der Ähnlichkeitsrecheneinheit 106 in Schritt S504 unter Verwendung der ausgelesenen Merkmale. Die Ergebnisse der Rechnung werden ausgegeben an den Erkennungsergebnis-Speicherbereich 113. Die Ausgangsinformation enthält n Zahlen von errechneten Werten und Zeichencodes aus Kategorien beispielsweise mit einem hohen Ähnlichkeitsgrad.
  • Die Verarbeitung der Schritte 5501-5504 erfolgt gemäß dem Stand der Technik.
  • Die Häufigkeit der Serien der Verarbeitungsoperationen von Schritten S502-S504, die ausgeführt wurden, wird in Schritt S505 bestimmt. Wenn die Serien der Verarbeitungsoperationen gerade begonnen haben, dann schreitet die Verarbeitung fort zu Schritt S506. Wenn die Operationen zwei- oder mehrfach ausgeführt worden sind, schreitet die Verarbeitung fort zu Schritt S507. Ein Zeichenbildblock wird einer Segmentierung erneut unterzogen und Schritt S506 ausgewählt. Die Auswahl wird für einen Fall angenommen, bei dem der errechnete Wert einer Kategorie, für die maximale Ähnlichkeit gewonnen wird, geringer ist als ein vorbestimmter Schwellwert (TH). In Hinsicht auf einen ausgewählten Zeichenbildblock wird ein Neusegmentierungsstatuskennzeichen (ISFLG), verwaltet von der CPU 101, auf "1" (den EIN-Zustand) gesetzt. In Schritt S507 wird das Segmentierungsstatuskennzeichen (ISFLG) eines Zeichens, das der Neusegmentierung unterzogen wurde, untersucht, und das Kennzeichen (ISFLG) wird auf "0" in Hinsicht auf ein Zeichen gesetzt, dessen Ähnlichkeitswert hinreichend größer ist als der vorbestimmte Schwellwert (TH), das nicht erneut der Segmentierung unterzogen werden muß.
  • Das Segmentierungsstatuskennzeichen (ISFLG) ist ein für jedes segmentierte Zeichen gesetztes Kennzeichen und wird gespeichert im Segmentierungsinformations-Speicherbereich 112 vom RAM 105.
  • In Schritt S508 wird untersucht, ob es ein Zeichen gibt, für das das Statuskennzeichen (ISFLG) der EIN-Zustand ist. Wenn ein Zeichen existiert, dessen Kennzeichen der EIN-Zustand ist, dann kehrt die Verarbeitung zurück zu Schritt S502, und dieses Zeichen wird erneut der Segmentierung unterzogen. Wenn ein Zeichen, dessen Kennzeichen der EIN-Zustand ist, nicht vorhanden ist, schreitet die Verarbeitung fort zu Schritt S509, das Ergebnis wird auf der Anzeige 109 angezeigt, und die Verarbeitung ist abgeschlossen.
  • < Spezielles Beispiel der Zeichenerkennungsverarbeitung (Fig. 20)>
  • Die obige Verarbeitung ist detailliert durch Vorstellen eines Falles beschrieben, bei dem die Zeichenbilder eingegeben werden, die in Fig. 20 gezeigt sind. Die in Fig. 20A gezeigten Zeichen werden angenommen als eingegebene Bildzeichen.
  • Bei der Anfangssegmentierung werden zuerst Projektionen von den Zeichenbildern herangezogen, wie in Schritt S502 beschrieben, wodurch sechs Bildblöcke 401-406 gewonnen werden, wie in Fig. 20B veranschaulicht. Durch Heranziehen einer Standardzeichenbreite, wie zuvor beschrieben, als Bezug, werden als nächstes Bildblöcke von vergleichsweise geringer Breite (Blöcke 401, 402, 403) angeschlossen, so daß vier Bildblöcke 405, 406, 407 gewonnen werden, wie in Fig. 20C gezeigt. Hier wird die Standardzeichenbreite herangezogen als Durchschnittswert der Breiten von Zeichenrechtecken mit einer Breite, die nahe an die Höhe des Rechteckbereichs 305 reicht, der eine Ein-Zeilen-Reihe darstellt.
  • Nachdem die Verarbeitung der Schritte S503 bis S505 ausgeführt worden ist, wird als nächstes ein Zeichenbildblock in Schritt S506 ausgewählt, der der Neusegmentierung zu unterziehen ist. Hier wird angenommen, daß die Zeichensegmentierungs- Statuskennzeichen (ISFLG) der Zeichenbildblöcke 407 und 408, die in Fig. 20C gezeigt sind, EIN sind. Bei der Segmentierung der Zweiten beim Schritt S502 an wird nur ein Zeichenbildblock, dessen Statuskennzeichen (ISFLG) gleich EIN ist, der Verarbeitung unterzogen.
  • In der zweiten Segmentierungsoperation wird zuerst die Verbindung zwischen dem Führungsblock und den folgenden Blöcken von fortgesetzten neusegmentierten Bildblöcken untersucht. Im Falle von Fig. 20b werden die Zeichenbildblöcke 401-404 fortgesetzte Blöcke, und es wird bestätigt, ob der Führungsblock 401 mit den Blöcken 402-404 verbunden ist. Die Breite verbundener Zeichenbildblöcke wird jedoch so eingestellt, daß sie in ein feststehendes Vielfaches der Zeichenbreite fällt, und die Anzahl von Kombinationen ist beschränkt. Im Ergebnis wird angenommen, daß es drei Kombinationen gibt, nämlich Block 401 allein, die Verbindung der Blöcke 401 und 402, und die Verbindung der Blöcke 401, 402 und 403. Die Verarbeitung der Schritte S503-S505 wird in Hinsicht auf diese zusammengesetzten Zeichenbilder ausgeführt. Letztlich wird in Schritt S507 die Verbindung mit dem höchsten Grad an Ähnlichkeit und einem Wert, der hinreichend größer als der vorbestimmte Schwellwert (TH) ist, als Ergebnis det Segmentierung angenommen. Hier wird angenommen, daß lediglich der Zeichenbildblock 401 diesen Bedingungen genügt, und folglich wird das Segmentierungsstatuskennzeichen (ISFLG) des Zeichenbildblockes 401 auf AUS gestellt. Zu diesem Zeitpunkt nimmt die Segmentierung den in Fig. 20D gezeigten Zustand an. Bei der dritten Segmentierungsoperation wird die Verbindung zwischen dem Zeichenbildblock 402 und den anderen Blöcken (hier 403 und 404) untersucht. Wenn die Zeichenbildblöcke 402 und 403 im dritten Versuch verbunden sind, wird beurteilt, daß der Ähnlichkeitsgrad maximal ist und der vorbestimmte Schwellwert (TH) hinreichend überschritten ist, die beiden Blöcke sind miteinander verbunden, um einen Zeichenbildblock 409 zu bilden, und das Segmentierungsstatuskennzeichen (ISFLG) für diesen Block wird auf AUS geschaltet.
  • In der vierten und letzten Segmentierung bleibt der Zeichenbildblock 404 so, daß die Verarbeitung der Schritte S502 bis S505 auf diesen Block angewandt wird. In Schritt S507 wird das Statuskennzeichen (ISFLG) ausgeschaltet. Dank der vorstehenden Verarbeitung werden Zeichenbildblöcke 401, 409, 404-406, unterteilt in der in Fig. 20E gezeigten Weise, gewonnen.
  • Wenn Zeichen, für die das Kennzeichen (ISFLG) auf EIN in Schritt S506 geschaltet sind, nicht in eine Vielzahl von Zeichenbildblöcken unterteilt werden durch Ausführen des nächsten Segmentierungsverarbeitungszyklus, und wenn es keine anderen Bildblöcke gibt, die im Nachbarabschnitt vorhanden sind, dann wird beurteilt, daß die Beurteilungsverarbeitung in Schritt 5506 in der nachfolgenden Schleife nicht fehlerhaft ist, und das Statuskennzeichen (ISFLG) wird auf AUS gestellt, so daß die Neusegmentierung nicht ausgeführt wird.
  • Gemäß diesem Ausführungsbeispiel wird folglich das erste eingegebene Bild der Gesamtsegmentierung unterzogen, Merkmale werden ausgelesen, die Ähnlichkeit wird errechnet, Abschnitte, die Neusegmentierung erfordern, werden bestimmt auf der Grundlage der Ergebnisse der Ähnlichkeitsrechnung, und Segmentieren, Merkmalsauslesen und Ähnlichkeitserrechnung werden nachfolgend wiederholt. Selbst wenn eine Serie von Erkennungsverarbeitungsoperationen abgeschlossen ist, kann als Ergebnis eine Fehlerkennung, die aus einer Zeichenerkennung herrührt, korrigiert werden.
  • Die Einrichtung zur Eingabe von Zeichenbildern ist nicht auf den Bildscanner 107 beschränkt. Wenn eine externe Speichereinrichtung angeschlossen ist, dann können Bilddaten, gewonnen durch andere Mittel, in dieser externen Speichereinrichtung zeitweilig gespeichert werden und dann von dieser Einrichtung aus eingegeben werden.
  • Die vorliegende Erfindung kann angewandt werden bei einem System, das aus einer Vielzahl von Einrichtungen gebildet ist, oder einem Gerät, das nur eine Einrichtung enthält. Des weiteren erübrigt es sich zu sagen, daß die Erfindung auch in einem Falle anwendbar ist, wenn der Gegenstand der Erfindung durch Anliefern eines Programms an ein System oder an ein Gerät erzielt wird.
  • Da viele weitestgehend unterschiedliche Ausführungsbeispiele der vorliegenden Erfindung ohne Abweichen vom Umfang derselben möglich sind, versteht es sich, daß die Erfindung nicht auf die speziellen Ausführungsbeispiele beschränkt ist. Der Umfang der vorliegenden Erfindung ist durch die anliegenden Patentansprüche festgelegt.

Claims (8)

1. Verfahren zur Zeichenerkennung, mit den Verfahrensschritten:
Eingeben (S501) eines Bildoriginals;
Segmentieren (S502) von Zeichenbildblöcken (401-406), die in das im Verfahrensschritt des Eingebens eingegebene Bildoriginal geschrieben sind; und
Ausführen einer Zeichenerkennung (S504) durch Vergleichen ausgelesener Merkmale der segmentierten Zeichenbildblöcke (401- 406) mit Informationen, die in einem vorgeschriebenen Zeichenwörterbuch gespeichert sind, und Realisieren eines Gleichheitsgrades;
gekennzeichnet durch die weiteren Verfahrensschritte:
Einstellen von Identifikationsinformationen (5506), die aufzeigen, ob jeder der segmentierten Zeichenbildblöcke eine Neusegmentierung auf der Grundlage der Ähnlichkeit erfordert;
Erzeugen für eine Gruppe aufeinanderfolgender segmentierter Zeichenbildblöcke (401-404), die eine Neusegmentierung auf der Grundlage der Identifikationsinformation erfordern, einer Vielzahl neuer Zeichenbildblöcke (407, 408; 401-404; 401, 409, 404) unter Verwendung aller möglichen aufeinanderfolgenden Kombinationen segmentierter Zeichenbildblöcke in der Gruppe, die mit dem ersten segmentierten Zeichenbildblock in der Gruppe beginnt, und Unterziehen der Bedingung, daß jeder neue Zeichenbildblock eine Breite hat, die innerhalb eines vorbestimmten Wertes liegt;
wiederholtes Zurückkehren (S508) zum Verfahrensschritt des Erkennens (S504), um so die Zeichenerkennung bezüglich einer Vielzahl neuer Zeichenbildblöcke auszuführen; und
Ausgeben (S509) eines Erkennungsergebnisses des neuen Zeichenbildblockes (401, 409, 404) mit dem höchsten Ähnlichkeitsgrad unter der Vielzahl neuer Zeichenbildblöcke, die im Verfahrensschritt des Erzeugens erzeugt und der Zeichenerkennung im Verfahrensschritt des Erkennens unterzogen worden sind, als Erkennungsergebnis für einen neusegmentierten Bildblock.
2. Verfahren nach Anspruch 1, bei dem das Verarbeiten durch das Erkennungsmittel jedesmal erfolgt, wenn in das Bildoriginal geschriebene Zeichenbildblöcke zu einer Zeit mit einer vorbestimmten Länge segmentiert werden.
3. Verfahren nach Anspruch 1, bei dem das Verarbeiten durch das Erkennungsmittel jedesmal erfolgt, wenn in das Bildoriginal (301) geschriebene Zeichenbildblöcke zu einer Zeit als ein Zeichen segmentiert werden.
4. Gerät zur Zeichenerkennung, mit:
einem Eingabemittel (107) zum Eingeben eines Bildoriginals;
einem Segmentiermittel (110), das Zeichenbildblöcke (401- 406) segmentiert, die in das Bildoriginal vom Eingabemittel (107) eingeschrieben sind;
einem Erkennungsmittel (106), das eine Zeichenerkennung durch Vergleichen ausgelesener Merkmale der segmentierten Zeichenbildblöcke (401-406) mit einer Information ausführt, die in einem vorhergeschriebenen Zeichenwörterbuch gespeichert sind, und Realisieren eines Ähnlichkeitsgrades;
gekennzeichnet durch:
ein Einstellmittel zum Einstellen einer Identifikationsinformation, die aufzeigt, ob jeder der segmentierten Zeichenbildblöcke eine Neusegmentierung auf der Grundlage des Ähnlichkeitsgrades erfordert;
einem Erzeugungsmittel, das für eine Gruppe von aufeinanderfolgenden segmentierten Zeichenbildblöcken (401-404), die basierend auf der Identifikationsinformation eine Neusegmentierung erfordern, eine Vielzahl neuer Zeichenbildblöcke (407, 408; 401-404) unter Verwendung aller möglichen aufeinanderfolgenden Kombinationen segmentierter Zeichenbildblöcke in der Gruppe erzeugt, die mit dem ersten segmentierten Zeichenbildblock in der Gruppe beginnen, der Bedingung unterzieht, daß jeder neue Zeichenbildblock eine Breite hat, die innerhalb eines vorbestimmten Wertes liegt;
einem Steuermittel (101), das das Erkennungsmittel (106) steuert, um eine Zeichenerkennung bezüglich der Vielzahl neuer Zeichenbildblöcke auszuführen; und mit
einem Ausgabemittel (109), das ein Erkennungsergebnis des neuen Zeichenbildblockes (401, 409, 404) mit dem höchsten Ähnlichkeitsgrad unter der Vielzahl neuer Zeichenbildblöcke, die vom Erzeugungsmittel erzeugt und der Zeichenerkennung vom Erkennungsmittel unterzogen worden sind, als Erkennungsergebnis für einen neusegmentierten Bildblock ausgibt.
5. Gerät nach Anspruch 4, dessen Erkennungsmittel (106) eingerichtet ist zum Ausführen einer Verarbeitung, immer wenn in das Bildoriginal eingeschriebene Zeichenbildblöcke mit einer vorbestimmten Länge zu einer Zeit segmentiert werden.
6. Gerät nach Anspruch 4, dessen Erkennungsmittel (106) eingerichtet ist zum Ausführen einer Verarbeitung, immer wenn in das Bildoriginal (301) eingeschriebene Zeichenbildblöcke mit einem Zeichen zu einer Zeit segmentiert werden.
7. Gerät nach einem der Ansprüche 4 bis 6, dessen Eingabemittel über einen Scanner (107) verfügt, der das Bildoriginal (301) abtastet.
8. Computerprodukt, das mit maschinenlesbaren Befehlen programmiert ist, um ein Verfahren nach einem der Ansprüche 1 bis 3 auszuführen.
DE69232493T 1991-10-21 1992-10-20 Verfahren und Gerät zur Zeichenerkennung Expired - Fee Related DE69232493T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP03272707A JP3126440B2 (ja) 1991-10-21 1991-10-21 画像処理方法及び装置
JP03275115A JP3133797B2 (ja) 1991-10-23 1991-10-23 文字認識方法及びその装置
JP3288286A JPH05128299A (ja) 1991-11-05 1991-11-05 文字認識方法及びその装置
JP4199746A JPH0644406A (ja) 1992-07-27 1992-07-27 画像処理方法及び装置

Publications (2)

Publication Number Publication Date
DE69232493D1 DE69232493D1 (de) 2002-04-18
DE69232493T2 true DE69232493T2 (de) 2003-01-09

Family

ID=27475981

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69232493T Expired - Fee Related DE69232493T2 (de) 1991-10-21 1992-10-20 Verfahren und Gerät zur Zeichenerkennung

Country Status (3)

Country Link
US (1) US5684891A (de)
EP (2) EP0539158A2 (de)
DE (1) DE69232493T2 (de)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
JPH08235310A (ja) * 1995-02-24 1996-09-13 Nec Corp 接触文字切り出し装置
US6104833A (en) 1996-01-09 2000-08-15 Fujitsu Limited Pattern recognizing apparatus and method
US6167367A (en) * 1997-08-09 2000-12-26 National Tsing Hua University Method and device for automatic error detection and correction for computerized text files
US6922699B2 (en) * 1999-01-26 2005-07-26 Xerox Corporation System and method for quantitatively representing data objects in vector space
US6941321B2 (en) * 1999-01-26 2005-09-06 Xerox Corporation System and method for identifying similarities among objects in a collection
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
JP4053188B2 (ja) * 1999-07-06 2008-02-27 富士通株式会社 パターン切り出し装置及びパターン認識装置
US7123768B2 (en) * 2000-04-26 2006-10-17 Minolta Co., Ltd. Apparatus and method for detecting a pattern
US6721452B2 (en) 2001-09-12 2004-04-13 Auburn University System and method of handwritten character recognition
RU2259592C2 (ru) 2003-06-24 2005-08-27 "Аби Софтвер Лтд." Способ распознавания графических объектов с использованием принципа целостности
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US20060041484A1 (en) 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8799303B2 (en) 2004-02-15 2014-08-05 Google Inc. Establishing an interactive environment for rendered documents
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20070300142A1 (en) 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US20080313172A1 (en) 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US9460346B2 (en) 2004-04-19 2016-10-04 Google Inc. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US7379595B2 (en) * 2004-05-24 2008-05-27 Xerox Corporation Manual windowing with auto-segmentation assistance in a scanning system
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
JP4555212B2 (ja) * 2005-11-10 2010-09-29 株式会社沖データ 透かし情報埋め込み装置,透かし情報埋め込み方法,およびコンピュータプログラム
US20100254606A1 (en) * 2005-12-08 2010-10-07 Abbyy Software Ltd Method of recognizing text information from a vector/raster image
RU2309456C2 (ru) * 2005-12-08 2007-10-27 "Аби Софтвер Лтд." Способ распознавания текстовой информации из векторно-растрового изображения
US20110096174A1 (en) * 2006-02-28 2011-04-28 King Martin T Accessing resources based on capturing information from a rendered document
EP2067119A2 (de) 2006-09-08 2009-06-10 Exbiblio B.V. Optische scanner, zum beispiel tragbare optische scanner
JP4909216B2 (ja) * 2006-09-13 2012-04-04 株式会社キーエンス 文字切り出し装置、方法およびプログラム
JP4123299B1 (ja) * 2007-02-21 2008-07-23 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
KR101364044B1 (ko) * 2007-04-13 2014-02-17 삼성전자주식회사 이동통신 단말기 및 그의 호에 따른 영상 표시 방법
JP2009124510A (ja) * 2007-11-15 2009-06-04 Canon Inc 表示制御装置及びその方法、プログラム、記録媒体
JP4549400B2 (ja) * 2008-03-04 2010-09-22 富士通株式会社 文書認識プログラム、文書認識装置、および文書認識方法
US7471826B1 (en) 2008-03-31 2008-12-30 International Business Machines Corporation Character segmentation by slices
EP2136317B1 (de) * 2008-06-19 2013-09-04 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung zur Erkennung von Zeichen
JP5146190B2 (ja) * 2008-08-11 2013-02-20 オムロン株式会社 文字認識装置、文字認識プログラム、および文字認識方法
WO2010096192A1 (en) 2009-02-18 2010-08-26 Exbiblio B.V. Interacting with rendered documents using a multi-function mobile device, such as a mobile phone
EP2406767A4 (de) 2009-03-12 2016-03-16 Google Inc Automatische bereitstellung von mit erfassten informationen, z. b. in echtzeit erfassten informationen, assoziierten inhalten
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US8520983B2 (en) * 2009-10-07 2013-08-27 Google Inc. Gesture-based selective text recognition
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
CN102346731B (zh) * 2010-08-02 2014-09-03 联想(北京)有限公司 一种文件处理方法及文件处理装置
KR101905426B1 (ko) * 2012-01-11 2018-10-10 한국전자통신연구원 자연영상에서 추출된 문자 정보의 순서화 방법 및 시스템
CN106845323B (zh) * 2015-12-03 2020-04-28 阿里巴巴集团控股有限公司 一种打标数据的收集方法、装置以及证件识别***
US9684844B1 (en) * 2016-07-15 2017-06-20 StradVision, Inc. Method and apparatus for normalizing character included in an image
CN106682667A (zh) * 2016-12-29 2017-05-17 成都数联铭品科技有限公司 非常见字体的图像文字ocr识别***
CN106611175A (zh) * 2016-12-29 2017-05-03 成都数联铭品科技有限公司 用于图像文字识别的字符图片自动切分***
JP2018112839A (ja) * 2017-01-10 2018-07-19 富士通株式会社 画像処理プログラム、画像認識プログラム、画像処理装置、画像認識装置、画像認識方法、及び画像処理方法
CN111178363B (zh) * 2019-12-18 2024-02-20 北京旷视科技有限公司 文字识别方法、装置、电子设备以及可读存储介质
JP2021157627A (ja) * 2020-03-27 2021-10-07 富士フイルムビジネスイノベーション株式会社 情報処理装置
CN111582262A (zh) * 2020-05-07 2020-08-25 京源中科科技股份有限公司 段式液晶图片内容识别方法、装置、设备和存储介质
CN112629407B (zh) * 2020-11-24 2024-03-22 西安理工大学 基于图像分析的螺纹钢尺寸测量方法
CN114722793A (zh) * 2021-01-04 2022-07-08 阿里巴巴集团控股有限公司 商标相似度获得方法、装置及电子设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3219974A (en) * 1960-11-14 1965-11-23 Control Data Corp Means for determining separation locations between spaced and touching characters
US3969700A (en) * 1974-04-10 1976-07-13 International Business Machines Corporation Regional context maximum likelihood error correction for OCR, keyboard, and the like
US4206442A (en) * 1974-07-03 1980-06-03 Nippon Electric Co., Ltd. Letter segmenting apparatus for OCR comprising multi-level segmentor operable when binary segmenting fails
US4344152A (en) * 1979-11-29 1982-08-10 International Business Machines Corp. Buffer memory control circuit for label scanning system
JPS5998283A (ja) * 1982-11-27 1984-06-06 Hitachi Ltd パターン切出しおよび認識方法、ならびにそのシステム
US4731857A (en) * 1984-06-29 1988-03-15 International Business Machines Corporation Recognition system for run-on handwritten characters
JPH0610829B2 (ja) * 1984-06-29 1994-02-09 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション 手書き文字認識方法
JPS6274181A (ja) * 1985-09-27 1987-04-04 Sony Corp 文字認識装置
FR2604004B1 (fr) * 1986-09-11 1990-05-11 Anatex Procede de reconnaissance d'ecriture manuscrite
JPH0634256B2 (ja) * 1987-03-04 1994-05-02 シャープ株式会社 接触文字切出し方法
JPS6437681A (en) * 1987-08-03 1989-02-08 Ricoh Kk Character recognizing device
JPH01112388A (ja) * 1987-10-26 1989-05-01 Ricoh Co Ltd 文字認識処理方法
JP2619429B2 (ja) * 1987-11-05 1997-06-11 グローリー工業株式会社 接触文字の分離方法
JP2822189B2 (ja) * 1988-05-19 1998-11-11 ソニー株式会社 文字認識装置及び方法
JP3753265B2 (ja) * 1996-07-22 2006-03-08 株式会社小松製作所 スクリューコンベヤのスクリュー接続装置

Also Published As

Publication number Publication date
DE69232493D1 (de) 2002-04-18
EP0539158A3 (de) 1994-02-09
EP0831418A3 (de) 1998-04-15
EP0831418A2 (de) 1998-03-25
EP0831418B1 (de) 2002-03-13
EP0539158A2 (de) 1993-04-28
US5684891A (en) 1997-11-04

Similar Documents

Publication Publication Date Title
DE69232493T2 (de) Verfahren und Gerät zur Zeichenerkennung
DE4311172C2 (de) Verfahren und Einrichtung zum Identifizieren eines Schrägenwinkels eines Vorlagenbildes
DE69517564T2 (de) Verfahren und Gerät zur Erzeugung einer hybriden Datenstruktur zur Anzeige eines Rasterbildes
DE69033079T2 (de) Aufbereitung von Text in einem Bild
DE69130382T2 (de) Zeichenverarbeitungsverfahren
DE69734540T2 (de) Drucksystem und Datenverarbeitungsverfahren dafür
DE69525731T2 (de) Gerät zur Handschrifterkennung, gekennzeichnet durch eine verbesserte Korrektur der Strichsegmentation und Verfahren zur Korrektur der Strichsegmentation für Handschrifterkennung
DE3346816C2 (de)
DE69425084T2 (de) Verfahren und Gerät zur Erkennung von Textzeilen, Wörtern und räumlichen Merkmalen von Zeichenzellen
DE69610478T2 (de) Zeichenerkennungssystembestimmung von abgetasteten und &#34;echtzeit&#34;-handgeschriebenen zeichen
DE3851484T2 (de) Datenverringerung für die Bildanzeige von Ganzseiten-Graphiken.
DE3806223C2 (de) Verfahren zur Erzeugung von Zeichenmustern
DE69327354T2 (de) Verfahren und Vorrichtung zum Ziehen von Konturen eines Bildes
DE19814075B4 (de) Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern
DE4005492C2 (de) Bildcodierverfahren
DE69230282T2 (de) Bildverarbeitungsverfahren und -vorrichtung
DE68907383T2 (de) Verfahren und Anordnung zur Umsetzung von Umrissdaten in Rasterdaten.
DE4427992C2 (de) Verfahren zum Erzeugen einer Dokumenten-Darstellung aus einem Bitmap-Bild eines Dokuments
DE3440377A1 (de) Verfahren zum verkleinern eines zeichenschriftsatzes
DE3716787A1 (de) Zeichenerkennungsverfahren
DE69230392T2 (de) Verfahren und Gerät zur Bildverarbeitung
DE69330900T2 (de) Verfahren zum Ausfüllen der Bildpunkte innerhalb eines Polygons
DE69512074T2 (de) Verfahren und gerät zur automatischen bestimmung eines textgebiets auf einem bitmapbild
EP0301384B1 (de) Schaltungsanordnung zur Aufbereitung von schrägstehenden, insbesondere handgeschriebenen Zeichen
DE69610520T2 (de) Handgeschriebene Daten und Befehlgesteneingabemethode und Gerät

Legal Events

Date Code Title Description
8332 No legal effect for de
8370 Indication related to discontinuation of the patent is to be deleted
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee