DE69125471T2 - Methode zur automatischen Unterscheidung zwischen graphischer Information und Textinformation von Bilddaten - Google Patents

Methode zur automatischen Unterscheidung zwischen graphischer Information und Textinformation von Bilddaten

Info

Publication number
DE69125471T2
DE69125471T2 DE69125471T DE69125471T DE69125471T2 DE 69125471 T2 DE69125471 T2 DE 69125471T2 DE 69125471 T DE69125471 T DE 69125471T DE 69125471 T DE69125471 T DE 69125471T DE 69125471 T2 DE69125471 T2 DE 69125471T2
Authority
DE
Germany
Prior art keywords
text
window
image data
graphic
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69125471T
Other languages
English (en)
Other versions
DE69125471D1 (de
Inventor
Min Seok Kang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE69125471D1 publication Critical patent/DE69125471D1/de
Application granted granted Critical
Publication of DE69125471T2 publication Critical patent/DE69125471T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40062Discrimination between different image types, e.g. two-tone, continuous tone

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Character Input (AREA)

Description

    HINTERGRUND DER ERFINDUNG Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich allgemein auf ein Verfahren zur automatischen Unterscheidung zwischen grafischer Information und Textinformation von Bilddaten und spezieller auf ein Verfahren zur automatischen Unterscheidung zwischen grafischer Information und Textinformation von Bilddaten, das zur Unterscheidung zwischen grafischer Information und Textinformation von Bilddaten fähig ist, die Grafik- und Textinformation mit Grauwerten einschließt, wobei die Bilddaten auf einfache Weise digitalisiert werden, so daß die Grafik und der Text des Bildes klar dargestellt werden.
  • Beschreibung des Standes der Technik
  • Aus dem Stand der Technik bekannte Verfahren zur Unterscheidung zwischen grafischer Information und Textinformation von Bilddaten sind in US-A-4 577 235 und US-A- 4 554 593 beschrieben.
  • Zuerst werden Bilddaten mit Grauwerten, die durch Einscannen einer zu duplizierenden Vorlage erhalten wurden, in angrenzende Bilddatenblöcke (beispielsweise 4 Pixel x 4 Pixel) unterteilt, die verarbeitet werden, um zu bestimmen, ob die durch die Datenblöcke repräsentierten Teile des Eildes einem Text- oder einem Grafikabschnitt des Dokuments entsprechen. Ein mittlerer Grauwert wird für jeden Datenblock bestimmt und als Indexierungsvariable für mindestens eine zusätzliche für den Block bestimmte Eigenschaft genutzt. Zusätzliche Eigenschaften sind die Blockvarianz, ein Blockkantenzählwert, ein Blockübereinstimmungszählwert oder ein Blocktextmittelwert. Es wird eine eindimensionale Gauß-Verteilung erzeugt, um die Datenwerte des zusätzlichen Merkmals für jeden möglichen Grauskalenwert eines Blockes zu verteilen. Der Mittelwert und die Standardabweichung werden für jede Datenverteilung bestimmt, und es wird der Mahalanobis-Abstand für jeden Datenwert des Merkmals bzw. der Eigenschaft ermittelt. Der Mahalanobis-Abstand ist eine repräsentative Wahrscheinlichkeit dafür, ob der Bilddatenblock einem Textabschnitt des Bildes oder einem Grafikabschnitt des Bildes entspricht.
  • Es werden Gauß-Verteilungen sowohl für Textdaten als auch Grafikdaten erzeugt, so daß die Wahrscheinlichkeiten sowohl für Text als auch für Grafik unabhängig für jeden Bilddatenblock abgeschätzt werden können. Die Textwahrscheinlichkeit wird dann durch Division durch die Summe der beiden Wahrscheinlichkeiten normiert. Die normierte Textwahrscheinlichkeit wird dann benutzt, um zu bestimmen, ob die Datenblöcke Text- oder Grafikteilen des Bildes entsprechen.
  • Das erwähnte herkömmliche Verfahren zur Unterscheidung zwischen Grafik- und Textabschnitten hat den Nachteil einer Überlastung der Software und somit einer Verringerung der Datenbestimmungsgeschwindigkeit, da die in vier Typen klassifizierte Charakteristik des Blocks für die Unterscheidung zwischen Grafik- und Textabschnitten angewandt wird. Bei der Bildung eines Systems, das ein Eingangssignal in Echtzeit verarbeitet, um die Unterscheidung zwischen Grafik- und Textabschnitten zu bewerkstelligen, tritt das Problem einer Verzögerung der Echtzeit, die neun Blöcken (36 Zeilen) entspricht, auf, da die Umgebung einer kreuzweisen Abtastung (Scannen) unterzogen wird, das eine vertikale Abtastung von maximal neun Blöcken und eine seitliche Abtastung von maximal neun Blöcken einschließt.
  • Ein Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten gemäß dem Oberbegriff von Anspruch 1 ist aus EP-A-0 404 236 bekannt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist daher eine Aufgabe der Erfindung, die dem Stand der Technik innewohnenden erwähnten Nachteile zu beheben und ein Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten bereitzustellen, bei dem die Unterscheidung zwischen Grafik- und Textteilen durch die Fenstereinheit durch Benutzung des Blockmittelwertes erreicht wird und der Fehler bei der Unterscheidung zwischen Grafik- und Textteilen durch die genaue Korrektur der Umgebung korrigiert wird, wobei dies durch Abtastung von Fenstern bis zu einer Maximalzahl von fünf bewerkstelligt wird - wodurch eine Verringerung der Belastung der Software und eine Datenverarbeitung mit hoher Geschwindigkeit erreicht wird. Eine weitere Aufgabe der Erfindung ist es, ein Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten bereitzustellen, das auf die Digitalisierung von Bilddaten angewandt werden kann, so daß der Grafikteil und der Textteil von Bilddaten einer Halbtonbehandlung bzw. einer adaptiven Digitalisierung unterzogen wird, wodurch die Grafik- und Textteile der Bilddaten klar wiedergegeben werden können.
  • In Übereinstimmung mit der vorliegenden Erfindung wird ein Verfahren zur automatischen Unterscheidung zwischen Grafik-information und Textinformation gemäß Anspruch 1 bereitgestellt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die obigen und weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der nachfolgenden detaillierten Beschreibung in Zusammenhang mit den begleitenden Zeichnungen klarer verständlich, von denen
  • Fig. 1 ein Funktionsblockschaltbild eines Systems zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten ist, das gemäß dem Verfahren der vorliegenden Erfindung arbeitet,
  • Fig. 2 ein Flußdiagramm darstellt, das den Betrieb des in Fig. 1 gezeigten Systems in Übereinstimmung mit der vorliegenden Erfindung zeigt,
  • Fig. 3 ein Maskenmuster zur Darstellung eines Korrekturbetriebs des in Fig. 1 gezeigten Systems in Übereinstimmung mit der vorliegenden Erfindung ist und
  • die Figuren 4A bis 4C Darstellungen sind, welche eine Kantenabdünnoperation des in Fig. 1 gezeigten Systems in Übereinstimmung mit der vorliegenden Erfindung darstellen.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Zuerst wird der Aufbau eines Systems zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten, das in Übereinstimmung mit dem Verfahren gemäß der vorliegenden Erfindung arbeitet, unter Bezugnahme auf Fig. 1 beschrieben.
  • In Fig. 1 ist ein Funktions-Blockschaltbild eines Systems zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten gemäß der vorliegenden Erfindung dargestellt. Wie in dieser Zeichnung gezeigt, weist das System gemäß der vorliegenden Erfindung einen A/D-Wandler 10 zur Umwandlung eines analogen Bildsignals PS, das von einem (nicht gezeigten) Scanner ausgegeben wird, in digitale Bilddaten synchron mit einem Abtastsignal SS, einen Adreßgenerator 20 zum Eingeben eines Zeilenendsignals LS vom Scanner zur Erzeugung einer Adresse synchron mit dem Abtastsignal SS, eine Pufferschaltung 30 zum Speichern der Bilddaten vom A/D-Wandler 10 in Übereinstimmung mit der vom Adreßgenerator 20 angelegten Adresse oder zum Ausgeben der gespeicherten Bilddaten an einen Datenbus in Übereinstimmung mit einer externen Adresse und einen Mikroprozessor 50 zum Eingeben der Bilddaten von der Pufferschaltung 30 zur Unterscheidung zwischen einem Grafikteil und einem Bildteil der Bilddaten und zur Steuerung des gesamten Betriebs des Systems auf.
  • Die Pufferschaltung 30 enthält einen ersten und einen zweiten Puffer 31 und 32 zur Pufferung der Adressen vom Adreßgenerator 20 und der Bilddaten vom A/D-Wandler 10 im Ansprechen auf Steuersignale CS1 und CS2 vom Mikroprozessor 50, einen ersten und einen zweiten Speicher 41 und 42 zum Speichern der Ausgangsdaten vom ersten und zweiten Puffer 31 und 32 in Übereinstimmung mit den gepufferten Adressen vom ersten und zweiten Puffer 31 und 32 und einen dritten und vierten Puffer 33 und 34 zur Pufferung der vom Mikroprozessor 50 angelegten Adressen zum Anlegen der gepufferten Adressen als Ausgabeadressen an den ersten und zweiten Speicher 41 und 42 und zum Ausgeben der Bilddaten vom ersten und zweiten Speicher 41 und 42 an den Mikroprozessor 50, jeweils im Ansprechen an die Steuersignale CS2 und CS1 vom Mikroprozessor 50.
  • Die Bezugsziffern 60 und 70 bezeichnen hier einen programmierbaren ROM bzw. einen RAM.
  • Nachfolgend wird der Betrieb des Systems zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten gemäß dem oben erwähnten Aufbau in Übereinstimmung mit der vorliegenden Erfindung im einzelnen unter Bezugnahme auf die Figuren 2 bis 4 beschrieben.
  • Nach Einschalten des Systems wird zuerst das durch Einscannen einer Vorlage mit dem Scanner gewonnene analoge Bildsignal PS dem A/D-Wandler 10 zugeführt. Der A/D- Wandler 10 wandelt das eingegebene analoge Bildsignal synchron mit dem Abtastsignal SS in digitale Bilddaten um. Der Adreßgenerator 20 empfängt das Zeilenendsignal LS vom Scanner und erzeugt eine Adresse als Eingabeadresse für den ersten und zweiten Speicher 41 und 42 in Übereinstimmung mit dem eingegebenen Zeilenendsignal LS synchron mit dem Abtastsignal SS.
  • Der Mikroprozessor 50 gibt die Signale CS1 und CS2 zur Steuerung der Puffer 31 bis 34 aus. Unter dieser Steuerung durch den Mikroprozessor 50 werden der erste und zweite Speicher 41 und 42 mit dem A/D-Wandler 10 und dem Adreßgenerator 20 verbunden, um die Bilddaten vom A/D- Wandler 10 in Übereinstimmung mit der durch den Adreßgenerator 20 angelegten Adresse zu speichern, oder sie werden mit dem Mikroprozessor 50 verbunden, um die gespeicherten Bilddaten auszugeben.
  • Zuerst, wenn der Mikroprozessor 50 das Steuersignal CS1 als aktives Signal ausgibt, während das Steuersignal CS2 inaktiv gemacht ist, werden der erste und vierte Puffer 31 und 34 aktiviert, während der zweite und dritte Puffer 32 und 33 inaktiv sind. Im Ergebnis werden die Bilddaten vom A/D-Wandler 10 über den aktivierten ersten Puffer 31 in dem durch den Adreßgenerator 20 adressierten Speicherplatz des ersten Speichers 41 gespeichert. Weiterhin werden die im Speicherplatz des zweiten Speichers 42, der durch den Mikroprozessor 50 adressiert wird, gespeicherten Bilddaten über den aktivierten vierten Puffer 34 an den Mikroprozessor 50 ausgegeben.
  • Dann gibt der Mikroprozessor 50 das Steuersignal CS2 als aktives Signal aus, während das Steuersignal CS1 inaktiv gemacht ist, wodurch der erste und vierte Puffer 31 und 34 deaktiviert sind, während der zweite und dritte Puffer 32 und 33 aktiviert sind. Im Ergebnis werden die im Speicherplatz des ersten Speichers 41, der durch den Mikroprozessor adressiert wird, gespeicherten Bilddaten über den aktivierten dritten Puffer 33 an den Mikroprozessor 50 ausgegeben. Weiterhin werden die Bilddaten vom A/D- Wandler 10 über den aktivierten zweiten Puffer 32 in dem durch den Adreßgenerator 20 adressierten Speicherplatz des zweiten Speichers 42 gespeichert.
  • Die vom Scanner erhaltenen Bilddaten werden gemäß der Adresse vom Adreßgenerator 20 zeilenweise in den ersten und zweiten Speicher 41 und 42 gespeichert, und die im ersten und zweiten Speicher 41 und 42 gespeicherten Bilddaten werden in einer gewünschten Anzahl von Zeileneinheiten, oder Vier-Zeilen-Einheiten zur Bildung eines Blocks, unter Adreßsteuerung durch den Mikroprozessor 50 auf den Datenbus zum Mikroprozessor 50 ausgegeben. Der Grauskalenwert wird auf der Grundlage der Anzahl der ausgegebenen Bits vom A/D-Wandler 10 für die im ersten und zweiten Speicher 41 und 42 gespeicherten Bilddaten bestimmt. Wenn beispielsweise der A/D-Wandler 10 ein 8-Bit- A/D-Wandler ist, ist der Grauskalenwert für die umgewandelten Bilddaten, die zeilenweise im ersten und zweiten Speicher 41 und 42 zu speichern sind, maximal 256. Die Bilddaten mit dem maximalen Grauskalenwert 256 werden abwechselnd in Vier-Zeilen-Einheiten entsprechend der alternierenden Aktivierung der Steuersignale CS1 und CS2 vom Mikroprozessor 50 in den ersten und zweiten Speicher 41 und 42 eingespeichert bzw. aus diesen ausgegeben.
  • Entsprechend wird das analoge Bildsignal in digitale Daten mit einem Grauskalenwert von maximal 256 umgewandelt, und die digitalen Daten werden im Schritt S1 in Fig. 2 zeilenweise in den ersten und zweiten Speicher 41 und 42 eingespeichert. Die gespeicherten Bilddaten werden in Vier-Zeilen-Einheiten im Schritt S2 durch den Mikroprozessor 50 ausgelesen. Dann unterteilt der Mikroprozessor 50 die gelesenen Bilddaten in angrenzende Bilddatenblökke, von denen jeder vorzugsweise 4 Pixel x 4 Pixel umfaßt, und ermittelt im Schritt S3 einen Blockmittelwert. Der Blockmittelwert ist im wesentlichen der mittlere Grauskalenwert der durch den Bilddatenblock repräsentierten Pixel, und somit ist der Block-Mittelwert für 4 Pixel x 4 Pixel maximal 256.
  • Dann wird unter Nutzung des Block-Mittelwertes im Schritt S4 die Hintergrundfarbausleuchtung berechnet bzw. bewertet. Ein Blocksatz wird aus drei Blöcken gebildet. Ein Block-Mittelwert wird für den Blocksatz aus drei Blöcken bestimmt. Die Hintergrundfarbausleuchtung wird durch den größten der Blockmittelwerte der Blocksätze des Bildes bestimmt. Der Blockmittelwert ist größer, wenn die Blöcke hauptsächlich die weiße Farbe einschließen, er ist kleiner, wenn die Blöcke hauptsächlich die schwarze Farbe einschließen. Der Block-Mittelwert ist nämlich proportional zur Helligkeit des Blocks. Die Zusammenfassung von drei Blöcken in einen Blocksatz wirkt als Tiefpaßfilter zur Verringerung der Belastung der Software und der Fehlerwahrscheinlichkeit bei der Beurteilung der Hintergrundfarbausleuchtung bei einer Blockeinheit.
  • Nachdem die Hintergrundfarbausleuchtung bewertet wurde, wird ein Schritt S5 der Diskriminierung zwischen einem Textabschnitt und einem Grafikabschnitt des Bildes und der Unterscheidung zwischen Textteil und Grafikteil des Bildes in Übereinstimmung mit dem Diskriminierungsergebnis ausgeführt. Der Textabschnitt des Bildes enthält mindestens einen Block derselben Ausleuchtung wie die Hintergrundausleuchtung, da es Abstandsabschnitte zwischen benachbarten Textteilen und benachbarten Textzeilen gibt. Der Textabschnitt des Bildes wird somit durch ein Fenster mit einem Block derselben Ausleuchtung wie die Hintergrundausleuchtung bestimmt.
  • Im Schritt S5 der Unterscheidung zwischen dem Textabschnitt und dem Grafikabschnitt des Bildes wird die Unterscheidungseinheit als Fenster vorgegeben, von denen jedes bevorzugt 16 angrenzende Blöcke umfaßt. Der Referenzwert wird für den Text- und den Grafikabschnitt des Bildes durch Multiplikation der im Schritt S4 erhaltenen Hintergrundfarbausleuchtung mit einem Fehlerkorrekturwert, bevorzugt 0,8 bis 1, erhalten. Wenn das Fenster mindestens einen Block mit einem größeren Wert als dem Referenzwert enthält, das heißt, wenn das Fenster mindestens einen Block mit der Hintergrundfarbausleuchtung enthält, wird das Fenster als Fenster eines Textabschnitts des Bildes beurteilt. Wenn andererseits das Fenster keinen Block mit einem größeren Wert als dem Referenzwert enthält, wird das Fenster als Fenster eines Grafikabschnitts des Bildes beurteilt. Der Zweck der Multiplikation der Hintergrundfarbausleuchtung mit dem Fehlerkorrekturwert von 0,1 bis 8 zur Bestimmung des Referenzwertes zur Unterscheidung zwischen dem Textabschnitt und dem Grafikabschnitt des Bildes besteht darin, einen Fehler des Aufnahmesensors des Scanners zu korrigieren, mit dem die Vorlage abgetastet wird. Je höher die Leistungsfähigkeit des Aufnahmesensors, desto näher liegt der Korrekturwert bei eins.
  • Nachdem der Schritt S5 der Diskriminierung zwischen einem Textabschnitt und einem Grafikabschnitt des Bildes und der Unterscheidung zwischen dem Textabschnitt und dem Grafikabschnitt des Bildes in Übereinstimmung mit dem Diskriminierungsergebnis beendet ist, wird ein Schritt S6 der Erkennung und Korrektur eines unkorrekt beurteilten Fensters, das heißt eines Fensters des Textteils, das unkorrekterweise als Fenster eines Grafikabschnitts erkannt und unterschieden wurde, und umgekehrt, ausgeführt.
  • Im Schritt S6 der Korrektur unkorrekt eingestufter Fenster wird der Korrekturvorgang durch Einscannen einer Umgebung von fünf Fenstern mit einem Maskenmuster ausgeführt, wie in Fig. 3 dargestellt. Hierbei stellt "L" ein Fenster des Textabschnitts und "G" ein Fenster des Grafikabschnitts dar.
  • Die Fensterkorrektur schließt bevorzugt eine Zentrumskorrektur, eine Horizontalkorrektur und eine Vertikalkorrektur ein, wie in Fig. 3 gezeigt. Bei der Zentrumskorrektur gemäß Fig. 3 wird, wenn das Fenster "L" des Textabschnitts von Fenstern "G" des Grafikabschnitts umgeben ist, das Fenster "L" des Textabschnitts als unkorrektes Fenster erkannt und folglich in ein Fenster "G" des Grafikabschnitts korrigiert, da bei der Vorlage tatsächlich kein Textabschnitt vorliegt, der so klein wäre, daß er nur ein Fenster einschließt. Auf der anderen Seite wird, wenn ein Fenster "G" des Grafikabschnitts von Fenstern "L" des Textabschnitts umgeben ist, der Korrekturvorgang auf dieselbe Weise wie für den Textabschnitt ausgeführt.
  • Des weiteren werden die Horizontalkorrektur, die Vertikal-Grafikabschnittkorrektur und die Vertikal- Textabschnittkorrektur - wie in Fig. 3 gezeigt - auf dieselbe Weise wie die Zentrumskorrektur ausgeführt. Wenn nämlich beide Kantenfenster benachbarter Fenster (mit einer Anzahl von 3 bis 5) solche desselben Abschnitts sind und mindestens eines der inneren Fenster das eines anderen Abschnitts als des Abschnitts der Kantenfenster ist, wird das Fenster des sich unterscheidenden Abschnitts in ein Fenster desselben Abschnitts wie die Kantenfenster korrigiert. Bei der fensterweisen Korrektur ist die vertikale Breite der Fenster ein Block, und daher bedeutet die vertikale Abtastung von fünf Fenstern die vertikale Abtastung von fünf Blöcken. Daher wird eine Verzögerung des Systembetriebs im Vergleich zu denjenigen, bei dem gemäß dem Stand der Technik neun Blöcke abgetastet werden, vermindert.
  • Nach der Korrektur der fensterweise unterschiedenen Informationsabschnitte im Schritt S6 wird ein Schritt S7 der Abdünnung von Kanten der Grafik-/Textabschnitte in Blockeinheiten ausgeführt. In der Realität kann die Unterscheidung zwischen Grafik- und Textabschnitten in der Vorlage nicht klar vorgenommen werden. Daher ist es erforderlich, die Kanten zwischen Grafik- und Textabschnitten blockweise abzudünnen, um diese korrekt zu definieren.
  • Im Schritt S7 wird eine Ausrichtung der Kanten der Grafik- und Textabschnitte erreicht. Das heißt, wenn eine Schwankung in einem Fenster auftritt, wenn nämlich das Fenster aus dem Grafikabschnitt in den Textabschnitt oder vom Textabschnitt in den Grafikabschnitt verändert zugeordnet wird, wird die Kante des verändert zugeordneten Fensters erfaßt und dann abgedünnt. Die Kante wird als derjenige Abschnitt des Fensters erkannt, wo die Ausleuchtung des Fensters plötzlich vergrößert oder plötzlich verringert wird.
  • Wenn die in Fig. 4A gezeigte tatsächliche Vorlage fensterweise in Grafik- und Textabschnitte unterteilt wird, sind die Kanten zwischen den Grafik- und Textabschnitten der Vorlage andere als diejenigen jedes Fensters. Im Falle einer fensterweisen Unterscheidung zwischen Grafik- und Textabschnitten überlappen sie sich, wie in Fig. 4B dargestellt. Zur korrekten Unterteilung zwischen überlappten Grafik- und Textabschnitten längs der in der tatsächlichen Vorlage definierten Kante wird die Kante jedes Fensters, das einen Überlappungsabschnitt hat, in Blöcke unterteilt, und es wird eine Diskriminierung dahingehend ausgeführt, ob jeder Block eine höhere Ausleuchtung als den Schwellwert hat. Im Falle der linken Kante werden die Blöcke vom ersten Block bis zu dem Block, der eine niedrigere Ausleuchtung als die Schwelle hat, als Textteil erkannt. Die Blöcke von dem Block ab, der dem letztgenannten Block am nächsten ist, bis zum letzten Block werden als Grafikteil erkannt. Im Falle der rechten Kante werden die Blöcke vom ersten Block bis zu dem Block, bei dem die Ausleuchtung höher als der Schwellwert ist, als Grafikabschnitt eingestuft. Die Blöcke von dem dem letztgenannten Block benachbarten Block bis zum letzten Block werden als Textabschnitt eingestuft. Da die Kante der auf Fensterbasis unterschiedenen Grafik- und Textabschnitte auf Blockbasis abgedünnt wird, wie oben erwähnt, können die Grafik- und Textabschnitte sehr ähnlich zur Trennung zwischen den Grafik- und Textabschnitten in der tatsächlichen Vorlage unterschieden werden, wie in Fig. 4C dargestellt.
  • Danach wird ein Schritt S8 ausgeführt, in dem die Verzögerung gegenüber der Echtzeit korrigiert wird. Damit ist die Unterscheidung zwischen Grafik- und Textabschnitten beendet.
  • Wie aus der obigen Beschreibung deutlich wird, stellt die vorliegende Erfindung ein Verfahren und ein System zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten dar, das zur Ausführung der Schritte des Nachweises eines Block-Mittelwertes, der Unterscheidung zwischen Grafik- und Textabschnitten anhand jedes Fensters unter Nutzung des Block-Mittelwertes, zur Korrektur des Fehlers bei der Unterscheidung zwischen Grafik- und Textabschnitten, zur Abdünnung der Kanten der Fenster und zur Korrektur der Verzögerung gegenüber der Echtzeit in der Lage ist. Somit wird die Verarbeitungsgeschwindigkeit des Mikroprozessors erhöht, was eine Datenverarbeitung mit hoher Geschwindigkeit ermöglicht. Durch Korrektur des Fehlers bei der Unterscheidung zwischen Grafik- und Textabschnitten kann die Umgebung exakt durch Scannen von nur maximal fünf Fenstern korrigiert werden, was eine Verringerung der Verzögerung gegenüber Echtzeit ermöglicht. Weiterhin kann die gesamte Verarbeitung in einer Zeitspanne nahe Echtzeit ausgeführt werden. Weiterhin kann die Dateneingabe-Hardware einfach sein, was einen einfachen Aufbau des Gesamtsystems ermöglicht. Insbesondere bietet die vorliegende Erfindung Vorteile, wenn sie im Zusammenhang mit der Digitalisierung von Bilddaten angewandt wird. In diesem Fall wird der Grafikteil der Bilddaten einer Halbtonverarbeitung unterzogen, während der Textteil einer adaptiven Digitalisierung unterworfen wird. Im Ergebnis können die Grafik- und Textabschnitte der Bilddaten klar wiedergegeben werden, wobei die Digitalisierung ohne Unterscheidung zwischen Grafik- und Textabschnitten bewerkstelligt wird.
  • Obgleich bevorzugte Ausführungsformen der vorliegenden Erfindung zum Zwecke der Darstellung beschrieben wurden, wird der Fachmann erkennen, daß verschiedene Abwandlungen, Hinzufügungen und Ersetzungen möglich sind, ohne daß der durch die anhängenden Ansprüche definierte Schutzbereich der Erfindung verlassen würde.

Claims (10)

1. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten, mit den Schritten:
(a) Umwandeln (S1) eines von einem Scanner ausgegebenen analogen Bildsignals in digitale Bilddaten und Speichern der digitalen Bilddaten,
(b) Lesen (S2) der im Schritt (a) gespeicherten Bilddaten,
(c) Unterteilen (S3) der gelesenen Bilddaten in angrenzende Bilddatenblöcke und Bestimmen von jeweiligen Blockmittelwertausleuchtungen,
dadurch gekennzeichnet, daß das Verfahren weiter aufweist:
(d) Bestimmen einer Hintergrundfarbausleuchtung (S4) durch Verarbeiten einer Mehrzahl von Blockmittelwertausleuchtungen, die im Schritt (c) berechnet wurden,
(e) Unterteilen des Bildes in Fenster, von denen jedes eine vorbestimmte Anzahl angrenzender Blöcke enthält, und Unterscheiden (S5) zwischen Textfenstern und Grafikfenstern, wobei ein Textfenster als Fenster definiert ist, das mindestens einen Block mit derselben Ausleuchtung wie die Hintergrundausleuchtung einschließt,
(f) Korrigieren (S6) eines unkorrekt beurteilten Fensters durch Abtasten eines vorbestimmten Musters benachbarter Fenster und Bestimmen dessen, ob die Positionen von Text- und Grafikfenstern innerhalb des Musters korrekt sind, und
(g) Ausführen einer Ausrichtung (S7) der Kanten von Grafik- und Textabschnitten durch Bestimmen dessen, welches Fenster eine Änderung von Text zu Grafik oder umgekehrt einschließt, und Unterteilen dieser Fenster in Blöcke zur genaueren Bestimmung der Kanten.
2. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten nach Anspruch 1, wobei der Schritt (d) der Berechnung der Hintergrundfarbausleuchtung (S4) einen Schritt des Zusammenfassens dreier Blöcke in einen Blocksatz, der Berechnung eines Block-Mittelwertes für den Blocksatz aus drei Blökken und der Bestimmung der Hintergrundfarbausleuchtung als des größten Wertes der Blockmittelwerte der Blocksätze einschließt.
3. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten nach Anspruch 1, wobei jedes der Fenster im Schritt (c) 16 angrenzende Blöcke enthält.
4. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten nach Anspruch 1, wobei der Schritt (e) des Unterscheidens einen Schritt aufweist, bei dem, wenn das Fenster mindestens einen Block mit der Hintergrundfarbausleuchtung einschließt, dieses Fenster als Fenster des Textabschnitts der Bilddaten beurteilt wird, und wenn das Fenster keinen Block mit der Hintergrundfarbausleuchtung einschließt, das Fenster als Fenster des Grafikabschnitts der Bilddaten beurteilt wird.
5. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten nach Anspruch 4, wobei der Block mit der Hintergrundfarbausleuchtung in einem Blocksatz vorliegt, wenn es in dem Blocksatz einen Block-Mittelwert gibt, der größer als ein durch Multiplikation der Hintergrundfarbausleuchtung mit einem Fehlerkorrekturwert erhaltener Wert ist.
6. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten nach Anspruch 5, wobei der Fehlerkorrekturwert ein Wert kleiner als, aber nahe bei eins ist.
7. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten nach Anspruch 1, wobei der Schritt (f) des Korrigierens des unkorrekt beurteilten Fensters (S6) einen Schritt aufweist, bei dem in einem Zentrumskorrekturfall, bei dem ein Zentrumsfenster des Textabschnitts oder Grafikabschnitts von Fenstern eines anderen Abschnitts umgeben ist, das Zentrumsfenster als Fenster desselben Abschnitts korrigiert wird, zu dem die umgebenden Fenster gehören.
8. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten nach Anspruch 1, wobei der Schritt (f) des Korrigierens des unkorrekt beurteilten Fensters (S6) einen Schritt einschließt, bei dem in Vertikal- und Horizontal- Korrekturfällen, in denen beide Kantenfenster von vertikal und horizontal aneinander angrenzenden fünf Fenstern demselben Abschnitt zugehören und mindestens eines der inneren Fenster einem anderen Abschnitt als die beiden Kantenfenster zugehören, das Fenster des anderen Abschnitts in ein Fenster desselben Abschnitts korrigiert wird, dem die Kantenfenster zugehören.
9. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten nach Anspruch 1, wobei der Schritt (g) des Ausführens der Ausrichtung der Kanten (S7) von Grafik- und Textabschnitten einen Schritt des Abdünnens eines Fensters, das einen Übergang vorn Grafikabschnitt in den Textabschnitt oder vom Textabschnitt in den Grafikabschnitt repräsentiert, zur Ausrichtung der Kante des Fensters aufweist.
10. Verfahren zur automatischen Unterscheidung zwischen Grafikinformation und Textinformation von Bilddaten nach Anspruch 9, wobei der Schritt des Abdünnens einen Schritt des Unterscheidens dessen aufweist, ob jeder Block des den geänderten Informationsabschnitt repräsentierenden Fensters eine Ausleuchtung höher als die Schwelle hat, wobei der Schritt des Unterscheidens mit den linken Endblöcken begonnen wird und die Blöcke als Textabschnitt beurteilt werden, die eine höhere Ausleuchtung als die Schwelle haben.
DE69125471T 1990-12-31 1991-12-31 Methode zur automatischen Unterscheidung zwischen graphischer Information und Textinformation von Bilddaten Expired - Fee Related DE69125471T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019900023060A KR930010845B1 (ko) 1990-12-31 1990-12-31 화상정보의 그림/문자 자동분리방법

Publications (2)

Publication Number Publication Date
DE69125471D1 DE69125471D1 (de) 1997-05-07
DE69125471T2 true DE69125471T2 (de) 1997-09-11

Family

ID=19309390

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69125471T Expired - Fee Related DE69125471T2 (de) 1990-12-31 1991-12-31 Methode zur automatischen Unterscheidung zwischen graphischer Information und Textinformation von Bilddaten

Country Status (5)

Country Link
US (1) US5375197A (de)
EP (1) EP0494026B1 (de)
JP (1) JP2595158B2 (de)
KR (1) KR930010845B1 (de)
DE (1) DE69125471T2 (de)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6351263B1 (en) * 1992-07-28 2002-02-26 Canon Kabushiki Kaisha Image processor which manually and independently designates processing parameters for character data and image data
US5640590A (en) * 1992-11-18 1997-06-17 Canon Information Systems, Inc. Method and apparatus for scripting a text-to-speech-based multimedia presentation
JPH06208654A (ja) * 1993-01-08 1994-07-26 Hitachi Software Eng Co Ltd ペン入力図形編集システム
GB2275844A (en) * 1993-03-02 1994-09-07 Info Enterprises Inc Image Zone Discrimination Using a Neural Network
US5946420A (en) * 1996-05-10 1999-08-31 Hewlett-Packard Company Printing with text enhancement: recognition by sensing paired edges, or by disqualification in pictorial regions
JP2000350021A (ja) * 1999-06-04 2000-12-15 Ricoh Co Ltd デジタル画像処理装置
US6748111B1 (en) 1999-12-02 2004-06-08 Adobe Systems Incorporated Recognizing text in a multicolor image
US6839151B1 (en) * 2000-02-02 2005-01-04 Zoran Corporation System and method for color copy image processing
AUPR788101A0 (en) * 2001-09-24 2001-10-18 Canon Information Systems Research Australia Pty Ltd Scanning and detecting a number of images
AU2002301153B2 (en) * 2001-09-24 2004-04-29 Canon Information Systems Research Australia Pty Ltd Scanning and Detecting a Number of Images
CN100405392C (zh) * 2004-03-31 2008-07-23 光宝科技股份有限公司 以压缩影像为基础增强打印品质的图文分离方法
CN100367762C (zh) * 2004-05-19 2008-02-06 光宝科技股份有限公司 加强半色调影像打印品质的方法
US7362474B2 (en) * 2004-06-07 2008-04-22 Lite-On Technology Corp. Printing quality enhancement via graphic/text detection method in compression (JPEG) image
US9137417B2 (en) 2005-03-24 2015-09-15 Kofax, Inc. Systems and methods for processing video data
US9769354B2 (en) 2005-03-24 2017-09-19 Kofax, Inc. Systems and methods of processing scanned data
US8749839B2 (en) * 2005-03-24 2014-06-10 Kofax, Inc. Systems and methods of processing scanned data
US7630544B1 (en) 2005-04-06 2009-12-08 Seiko Epson Corporation System and method for locating a character set in a digital image
US8203768B2 (en) * 2005-06-30 2012-06-19 Xerox Corporaiton Method and system for processing scanned patches for use in imaging device calibration
US10943030B2 (en) 2008-12-15 2021-03-09 Ibailbonding.Com Securable independent electronic document
US9767354B2 (en) 2009-02-10 2017-09-19 Kofax, Inc. Global geographic information retrieval, validation, and normalization
US9576272B2 (en) 2009-02-10 2017-02-21 Kofax, Inc. Systems, methods and computer program products for determining document validity
US8774516B2 (en) 2009-02-10 2014-07-08 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9349046B2 (en) 2009-02-10 2016-05-24 Kofax, Inc. Smart optical input/output (I/O) extension for context-dependent workflows
US8958605B2 (en) 2009-02-10 2015-02-17 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9087396B2 (en) 2011-10-13 2015-07-21 Hewlett-Packard Development Company, L.P. Digital image text addition
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US9058515B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US9483794B2 (en) 2012-01-12 2016-11-01 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US9514357B2 (en) 2012-01-12 2016-12-06 Kofax, Inc. Systems and methods for mobile image capture and processing
US9058580B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
WO2014160426A1 (en) 2013-03-13 2014-10-02 Kofax, Inc. Classifying objects in digital images captured using mobile devices
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US9208536B2 (en) 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
EP2992481A4 (de) 2013-05-03 2017-02-22 Kofax, Inc. Systeme und verfahren zur detektion und klassifizierung von objekten in mithilfe von mobilen vorrichtungen aufgenommenen videos
JP2016538783A (ja) 2013-11-15 2016-12-08 コファックス, インコーポレイテッド モバイル映像データを用いて長尺文書の合成画像を生成するためのシステムおよび方法
EP3126148A4 (de) * 2014-03-31 2017-08-09 Hewlett-Packard Development Company, L.P. Prozessbilddaten
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US9779296B1 (en) 2016-04-01 2017-10-03 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4149091A (en) * 1977-05-02 1979-04-10 Xerox Corporation Scanning apparatus
JPS58103266A (ja) * 1981-12-15 1983-06-20 Toshiba Corp 文字画像処理装置
JPS58134368A (ja) * 1982-02-05 1983-08-10 Ricoh Co Ltd 文書画像処理装置
JPS59146262A (ja) * 1983-02-09 1984-08-22 Hitachi Ltd 2値1多値画像領域判定処理方式
US4577235A (en) * 1984-08-20 1986-03-18 The Mead Corporation Text/continuous tone image decision processor
JP2702928B2 (ja) * 1987-06-19 1998-01-26 株式会社日立製作所 画像入力装置
DE69030280T2 (de) * 1989-05-08 1997-10-30 Canon K.K., Tokio/Tokyo Bildverarbeitungsvorrichtung und -methode
NL8901555A (nl) * 1989-06-21 1991-01-16 Oce Nederland Bv Werkwijze en inrichting voor beeldsegmentatie.

Also Published As

Publication number Publication date
KR920014198A (ko) 1992-07-30
US5375197A (en) 1994-12-20
EP0494026A2 (de) 1992-07-08
EP0494026B1 (de) 1997-04-02
DE69125471D1 (de) 1997-05-07
KR930010845B1 (ko) 1993-11-12
JP2595158B2 (ja) 1997-03-26
EP0494026A3 (en) 1992-11-04
JPH04296163A (ja) 1992-10-20

Similar Documents

Publication Publication Date Title
DE69125471T2 (de) Methode zur automatischen Unterscheidung zwischen graphischer Information und Textinformation von Bilddaten
DE3633743C2 (de)
EP0131676B1 (de) Verfahren zum automatischen Digitalisieren des Umrisses von Strichgraphiken z.B. Buchstaben
DE69715076T2 (de) Vorrichtung zur Erzeugung eines Binärbildes
DE69533054T2 (de) Mehrfenstertechnik zur Schwellenwertverarbeitung eines Bildes unter Verwendung lokaler Bildeigenschaften
DE68923349T2 (de) Bildreduzierungsvorrichtung.
DE69413934T2 (de) Verfahren und Einrichtung zur Steuerung der Verarbeitung von digitalen Bildsignalen
DE3882968T2 (de) Bilddistkriminator.
DE69432093T2 (de) Bildverarbeitungsvorrichtung
DE69600461T2 (de) System und Verfahren zur Bewertung der Abbildung eines Formulars
DE3752300T2 (de) Ein-/Ausgabegerät und Verfahren zur Verarbeitung von Bilddaten
DE69026329T2 (de) Entrasterung von gespeicherten digitalen Halbtonbildern durch logisches Filtrieren
DE69027173T2 (de) Farbbilddatenverarbeitungsvorrichtung
DE3856034T2 (de) Bildverarbeitungsgerät
DE69521184T2 (de) Gerät zur Bildverarbeitung gemäss einem lokal ermittelten Bildregionentyp
DE69718566T2 (de) Verfahren zum Komprimieren von Zwei-Pegeldaten
EP0067244A2 (de) Verfahren zum automatischen Erkennen von Weissblöcken sowie Text-, Graphik- und/oder Graubildbereichen auf Druckvorlagen
DE4117038C2 (de) Zeilenbereich-Segmentierungsverfahren
DE69111660T2 (de) Bildlesevorrichtung und Verfahren zur Verbesserung von Formumrissen.
DE69125869T2 (de) Gradationskorrekturvorrichtung
DE68904611T2 (de) Verfahren und vorrichtung zur erzeugung von gemischten bildern.
DE69838536T2 (de) Bildwandler und bildwandlungsverfahhren
EP0132453B1 (de) Verfahren und Einrichtung zum Minimieren von Fehlern bei der digitalen Verarbeitung von elektrischen Signalen
DE69512074T2 (de) Verfahren und gerät zur automatischen bestimmung eines textgebiets auf einem bitmapbild
DE69219811T2 (de) Bildverarbeitungs-Einrichtung und -Verfahren

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee