DE19700352A1 - Verfahren zur Bestimmung der Geometriedaten des relevanten Bildausschnitts - Google Patents

Verfahren zur Bestimmung der Geometriedaten des relevanten Bildausschnitts

Info

Publication number
DE19700352A1
DE19700352A1 DE1997100352 DE19700352A DE19700352A1 DE 19700352 A1 DE19700352 A1 DE 19700352A1 DE 1997100352 DE1997100352 DE 1997100352 DE 19700352 A DE19700352 A DE 19700352A DE 19700352 A1 DE19700352 A1 DE 19700352A1
Authority
DE
Germany
Prior art keywords
image
brightness
relevant
scanner
relevant image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1997100352
Other languages
English (en)
Inventor
Uwe-Jens Krabbenhoeft
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heidelberger Druckmaschinen AG
Original Assignee
Heidelberger Druckmaschinen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heidelberger Druckmaschinen AG filed Critical Heidelberger Druckmaschinen AG
Priority to DE1997100352 priority Critical patent/DE19700352A1/de
Priority to JP10530445A priority patent/JP2000508460A/ja
Priority to PCT/DE1997/002947 priority patent/WO1998031135A1/de
Priority to EP97953641A priority patent/EP0950311A1/de
Publication of DE19700352A1 publication Critical patent/DE19700352A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

Die Erfindung bezieht sich auf das Gebiet der elektronischen Reproduktions­ technik und betrifft ein Verfahren zur automatischen Bestimmung der Geome­ triedaten, wie Position, Abmessungen und Winkellage, des relevanten Bildaus­ schnitts einer abzutastenden Bildvorlage auf einem Scannertablett bzw. einer Scannertrommel.
In der Reproduktionstechnik werden Druckvorlagen für Druckseiten erzeugt, die alle zu druckenden Elemente wie Texte, Grafiken und Bilder enthalten. Im Fall der elektronischen Herstellung der Druckvorlagen liegen diese Elemente in Form von digitalen Daten vor. Für ein Bild werden die Daten z. B. erzeugt, in­ dem das Bild in einem Scanner punkt- und zeilenweise abgetastet wird, jeder Bildpunkt in Farbkomponenten zerlegt wird und die Farbwerte dieser Kompo­ nenten digitalisiert werden. Üblicherweise werden Bilder in einem Scanner in die Farbkomponenten Rot, Grün und Blau (R, G, B) zerlegt. Für den Vier­ farbdruck werden diese Komponenten dann weiter in die Druckfarben Cyan, Magenta, Gelb und Schwarz (C, M, Y, K) transformiert. Für Schwarz-Weiß-Bilder erzeugt der Scanner entweder gleich nur eine Komponente mit Grauwer­ ten oder die zunächst abgetasteten RGB-Komponenten werden später in die Druckfarbe Schwarz umgerechnet.
Der Scanner kann ein Flachbettgerät sein, in dem die abzutastenden Bildvorla­ gen auf einem Scannertablett montiert werden. Die Bildvorlagen können trans­ parent sein (Diapositive oder Farbnegative) oder reflektierend (Aufsichtsbilder).
Das Scannertablett wird beleuchtet, und das durchscheinende bzw. reflektierte Licht einer Scanlinie wird durch Farbfilter in die Farbkomponenten zerlegt. Das Licht der Farbkomponenten wird dann z. B. mittels einer CCD-Zeile weiter in diskrete Bildpunkte zerlegt und in elektrische Signale umgewandelt, die an­ schließend digitalisiert werden. Alternativ kann auch ein Trommelscanner ver­ wendet werden, in dem die Bildvorlagen auf eine transparente Scannertrommel montiert werden. Die Scannertrommel wird je nach Art der Bildvorlagen (transparent oder reflektierend) punktförmig von innen oder außen beleuchtet, und das durchscheinende bzw. reflektierte Licht der Farbkomponenten wird in einem Abtastkopf auf Lichtsensoren fokussiert und in elektrische Signale um­ gewandelt. Dabei rotiert die Scannertrommel, während die Beleuchtungseinrich­ tung und der Abtastkopf entlang der Achse der Scannertrommel bewegt wer­ den, so daß die Oberfläche der Scannertrommel punkt- und zeilenweise abge­ tastet wird.
Um das Abtasten der Bildvorlagen rationeller durchzuführen, werden mehrere Bildvorlagen auf das Scannertablett bzw. die Scannertrommel montiert, die der Scanner dann automatisch nacheinander abtasten, digitalisieren und speichern soll. Dazu müssen in einem Arbeitsvorbereitungsprozeß die Positionen der Bil­ der auf dem Scannertablett bzw. auf der Scannertrommel, ihre Abmessungen und ihre Winkellage erfaßt und eingegeben werden. Damit sind die Ausschnitte der zur Verfügung stehenden Scanfläche definiert, die vom Scanner abgetastet und den einzelnen Bildern zugeordnet werden sollen.
In einer parallel laufenden, gleichzeitig eingereichten Patentanmeldung der Anmelderin (internes Aktenzeichen 96/958, "Verfahren zur Bestimmung der Geometriedaten von Abtastvorlagen") wird beschrieben, wie die Geometrieda­ ten der Abtastvorlagen aus einer Übersichtsabtastung der gesamten Scanflä­ che in grober Auflösung automatisch ermittelt werden. Die so ermittelten Geo­ metriedaten beschreiben für jede Bildvorlage ein Abtastrechteck, das die ganze Bildvorlage einschließlich der Ränder umfaßt. Für die Bildabtastung in feiner Auflösung, d. h. zur Erzeugung der Bilddaten, die für die Herstellung der Druck­ vorlagen gebraucht werden, wird jedoch der Bildausschnitt ohne die Ränder benötigt, der nur den relevanten Bildinhalt umfaßt.
Nach dem Stand der Technik ist das Eingeben der Geometriedaten für den re­ levanten Bildausschnitt zeitaufwendig. Oft wird dazu eine Vorwegabtastung der Bildvorlage (Prescan) in geringerer Auflösung durchgeführt. Die Scandaten der Vorwegabtastung werden auf einem Monitor dargestellt, und mit einem Cursor können dann manuell auf dem Bildschirm die Eckpunkte des relevanten Bild­ ausschnitts markiert werden. Eine Vorwegabtastung dient außerdem dazu, in­ nerhalb des relevanten Bildausschnitts die Scandaten der Vorwegabtastung in bezug auf Gradation, Kontrast, Farben usw. zu analysieren, um daraus Einstel­ lungsparameter des Scanners für die endgültige Abtastung in feiner Auflösung herzuleiten. Nach einer anderen Methode werden die Bilder auf eine Montage­ folie montiert, die auf ein Digitalisiertablett gelegt wird. Dort werden dann die Koordinaten der relevanten Bildausschnitte erfaßt. Anschließend wird die Mon­ tagefolie auf das Scannertablett bzw. die Scannertrommel aufgebracht. Es gibt hierfür auch die Lösung, daß die Einrichtung zur Erfassung der Koordinaten in das Scannertablett integriert ist. In jedem Fall ist die Koordinatenerfassung mit manueller Arbeit und Zeitaufwand verbunden.
Obwohl man sich bemüht, die Bilder so gerade wie möglich auf die Scanfläche zu montieren, ist die Erfassung der Winkellage des relevanten Bildausschnitts doch sinnvoll. Da die exakte Ausrichtung der Bilder bei der Montage arbeits­ aufwendig und zeitraubend ist, kann es wirtschaftlicher sein, die Bilder nur an­ nähernd gerade zu montieren und die genaue Ausrichtung später auszuführen. Manche Flachbettscanner haben eine Vorrichtung, mit der das Scannertablett um einen beliebigen vorgegebenen Winkel gedreht werden kann. Damit kann die schiefe Montage des Bildes auf der Scanfläche beim Scannen korrigiert werden. Wenn eine solche Drehvorrichtung nicht vorhanden ist, können die ge­ scannten Bilddaten später in einem Rechenprozeß gedreht werden, um die schiefe Montage zu korrigieren.
Es ist die Aufgabe der vorliegenden Erfindung, die zuvor beschriebene manuel­ le Erfassung der Geometriedaten zu vermeiden und ein Verfahren zur automa­ tischen Bestimmung von Position, Abmessungen und Winkellage des relevan­ ten Bildausschnitts einer Bildvorlage anzugeben. Dadurch wird die Bedienung des Scanners vereinfacht und eine Automatisierung der Bildabtastung ermög­ licht. Diese Aufgabe wird durch die Merkmale des Anspruchs 1 und der Un­ teransprüche 2 bis 9 gelöst.
Die Erfindung wird nachfolgend anhand der Fig. 1 bis 5 näher beschrieben. Es zeigen:
Fig. 1 eine Bildvorlage einschließlich des Bildrandes,
Fig. 2 die Bestimmung von Weißpunkt und Schwarzpunkt im Histogramm,
Fig. 3 eine Verstärkungsfunktion für die Helligkeitswerte,
Fig. 4 Kantenfilter für horizontale und vertikale Kanten, und
Fig. 5 die Suche nach einer angepaßten Geraden mittels der Hough-Transformation.
Fig. 1 zeigt eine Bildvorlage (1) einschließlich des Bildrandes (2). Die Bildvorla­ gen sind im allgemeinen farbige oder schwarz-weiße Diapositive, Negative oder Aufsichtsbilder. In der Fig. 1 ist als Beispiel ein Negativ als Bildvorlage darge­ stellt, das aus Gründen der einfachen Vervielfältigung als Binärbild mit nur schwarzen und weißen Bildpunkten angedeutet ist. Der relevante Bildausschnitt (3) der Bildvorlage (1) ist der Teil der Bildvorlage, der Bildinformation enthält. Das erfindungsgemäße Verfahren ermittelt automatisch den Umriß (4) des rele­ vanten Bildausschnitts, d. h. die Trennlinie zwischen Bildrand (2) und relevan­ tem Bildausschnitt (3).
In einem ersten Verarbeitungsschritt wird eine Vorwegabtastung (Prescan) der Bildvorlage (1) in reduzierter Auflösung durchgeführt, z. B. mit 60 Pixel/cm. Aus den gespeicherten RGB-Scandaten dieser Abtastung wird erfindungsgemäß ein Bildsignal errechnet, das möglichst deutlich den Umriß (4) des relevanten Bild­ ausschnitts wiedergibt. Vorzugsweise ist das eine Helligkeitskomponente, z. B. die L-Komponente, die bei der Transformation der RGB-Daten in LAB-Daten des CIELAB-Farbraums gewonnen wird (CIE = Commission Internationale d'Eclairage). Eine Helligkeitskomponente kann aber auch durch eine gewichtete Addition der RGB-Daten gewonnen werden. Ersatzweise kann auch eine ein­ zelne Farbkomponente, z. B. der grüne Anteil der RGB-Daten, als Helligkeits­ komponente verwendet werden.
Im zweiten Verarbeitungsschritt der Erfindung wird ein Weißpunkt Lw und ein Schwarzpunkt Ls aus den Werten der Helligkeitskomponente bestimmt. Vor­ zugsweise werden dazu die Häufigkeiten aller Werte im Helligkeitsbild ermittelt und in einem kumulativen Histogramm aufgetragen. Als Weißpunkt Lw wird dann z. B. der Helligkeitswert definiert, bei dem im Histogramm 5% aller Hellig­ keitswerte erreicht sind. Als Schwarzpunkt Ls wird entsprechend dazu der Hel­ ligkeitswert definiert, bei dem im Histogramm 95% aller Helligkeitswerte erreicht sind. Bei diesen Prozentwerten erhält man erfahrungsgemäß Weiß- und Schwarzpunkte, die für das Bild repräsentativ sind. Aus der Differenz zwischen Schwarzpunkt und Weißpunkt ergibt sich der Dynamikumfang D des Hellig­ keitsbildes zu:
D = Ls - Lw (1)
Fig. 2 zeigt das kumulative Histogramm mit dem Weißpunkt Lw und dem Schwarzpunkt Ls. Für die vorliegende Erfindung ist nicht wesentlich, bei wel­ chen Prozentwerten im Histogramm der Weißpunkt und der Schwarzpunkt fest­ gelegt werden. Es können beliebige Prozentwerte in der Nähe von 0% bzw. 100% gewählt werden. Grundsätzlich können auch die Helligkeitswerte bei 0% und bei 100%, d. h. die absolut hellsten und dunkelsten Werte im Helligkeitsbild als Weißpunkt und Schwarzpunkt gewählt werden. Dann besteht jedoch die Möglichkeit, daß der Weißpunkt und Schwarzpunkt nicht für das Bild repräsen­ tativ sind, wenn die extremen Helligkeitswerte bei 0% und 100% nur sehr selten im Bild vorkommen.
Im nächsten Verarbeitungsschritt der Erfindung werden die Helligkeitswerte L durch eine nichtlineare Funktion g{L} in der Nähe des Helligkeitswertes des Bildrandes (2) verstärkt, um in den Helligkeitswerten den Umriß (4) des relevan­ ten Bildausschnitts besonders hervorzuheben. Im Beispiel von Fig. 1 ist die Bildvorlage (1) ein Negativ, d. h. der Bildrand (2) ist schwarz. In diesem Fall werden also die Helligkeitswerte L im schwarzen Bereich verstärkt. Bei einer Aufsichtsvorlage, deren Rand im allgemeinen weiß ist, werden die Helligkeits­ werte L entsprechend im weißen Bereich verstärkt. Die verstärkten Helligkeits­ werte Lg ergeben sich zu:
Lg = g{L} (2)
Fig. 3 zeigt ein Beispiel für die Verstärkungsfunktion g{L}, wobei die Hellig­ keitswerte L im schwarzen Bereich verstärkt werden. Unter der Voraussetzung, daß die Helligkeitswerte L zum Beispiel mit 8 bit Genauigkeit dargestellt wer­ den, ergeben sich Werte für L zwischen 0 (schwarz) und 255 (weiß). Der Hel­ ligkeitswert 0 wird um den Faktor 5 verstärkt, die Verstärkung nimmt bis zum Helligkeitswert 15 linear ab auf den Faktor 1 und bleibt dann für die restlichen Helligkeitswerte bis 255 auf dem Faktor 1. Das heißt, nur die Helligkeitswerte im Bereich 0 . . . 15 werden verstärkt, die übrigen Helligkeitswerte bleiben unver­ ändert. Wenn der Bildrand weiß ist, wird z. B. eine hierzu spiegelbildliche Funk­ tion g{L} verwendet, die die Helligkeitswerte L im Bereich 240 . . . 255 verstärkt und die übrigen Helligkeitswerte unverändert läßt.
Im nächsten Verarbeitungsschritt der Erfindung wird die Helligkeitskomponente einer digitalen Kantenfilterung unterworfen. Vorzugsweise werden Filter ver­ wendet, die an näherungsweise horizontalen und vertikalen Kanten hohe Aus­ gangswerte erzeugen und dadurch solche Kanten hervorheben.
Fig. 4 zeigt als Beispiel jeweils ein einfaches Filter für horizontale Kanten (5) und für vertikale Kanten (6). Das horizontale Filter erstreckt sich über 2×5 Pi­ xel. Der eingekreiste Punkt P bezeichnet die Position des aktuellen Pixels. Die Werte hij an jeder Position des Filterfensters sind die Filterkoeffizienten. Die Filterung wird durchgeführt, indem der Punkt P des Filterfensters über jedes Pi­ xel des verstärkten Helligkeitsbildes Lg gelegt wird und die unter den jeweiligen Fensterpositionen liegenden Pixelwerte Lgij mit den Koeffizienten hij multipliziert und aufaddiert werden. Das Ergebnis wird noch auf den Dynamikumfang D normalisiert, indem es mit 1/(k1×D) multipliziert wird, wobei k1 eine Konstan­ te ist. Der Filterwert Fh jedes Pixels ergibt sich also zu:
Fh = [Σ(hij × Lgij)]/(k1 × D). (3)
Für das vertikale Filter (6), das eine um 90° gedrehte Version des horizontalen Filters (5) ist, ergibt sich der Filterwert Fv entsprechend zu:
Fv = [Σ(vij × Lgij)]/(k1 × D). (4)
Die Filterwerte Fh und Fv der horizontalen und vertikalen Kantenfilterung wer­ den erfindungsgemäß anschließend zu einem resultierenden Filterwert F zu­ sammengefaßt. Vorzugsweise werden dazu für jedes Pixel die Beträge von Fh und Fv verglichen, und der jeweils größere Wert wird als resultierender Filter­ wert F genommen. Er ergibt sich dann zu:
F = Vzmax × max (|Fh|, |Fv|), (5)
wobei Vzmax das Vorzeichen des ausgewählten Maximalwertes ist.
Für die vorliegende Erfindung sind die Form und Koeffizienten der in Fig. 4 ge­ zeigten Kantenfilter nicht wesentlich. Es können auch Filterfenster mit mehr oder weniger als 2×5 Pixel und mit anderen Koeffizienten verwendet werden. Wichtig ist nur, daß durch die Filterung vorwiegend horizontale und vertikale Kanten hervorgehoben werden. Ebenso können auch andere zusammenfas­ sende Funktionen als die nach Gleichung (5) verwendet werden, z. B. die Sum­ me der Betragswerte |Fh| und |Fv| versehen mit dem Vorzeichen des größeren Wertes. Für die Erfindung ist die genaue Form der Verstärkungsfunktion g{L} ebenfalls nicht wesentlich. Wichtig ist nur, daß die Helligkeitswerte L im Bereich der Farbe des Bildrandes durch die Funktion g{L} verstärkt werden.
Fig. 5 zeigt den nächsten Verarbeitungsschritt der Erfindung, in dem für jede der vier Seiten des relevanten Bildausschnitts eine optimal angepaßte Gerade ermittelt wird. Hierzu wird erfindungsgemäß ein Verfahren eingesetzt, das in der Bildverarbeitungstechnik als (analoge) Hough-Transformation bekannt ist (H. Bässmann, P. W. Besslich: Bildverarbeitung Ad Oculos, S. 101-121, Springer Verlag 1993). Zunächst wird das umschreibende Rechteck (7) des gefilterten Bildes F mit den Eckpunkten A, B, C, D gebildet, dessen Seiten parallel zur Haupt- bzw. Nebenabtastrichtung sind. Dann werden für jede Seite des relevan­ ten Bildausschnitts in einem bestimmten Suchbereich für Geraden mit verschie­ denen Positionen und unter verschiedenen Winkeln die Filterwerte F entlang der Geraden aufsummiert. Die Gerade, für die die Summe einen positiven bzw. negativen Maximalwert erreicht, wird als optimal angepaßte Gerade für diese Seite des relevanten Bildausschnitts ausgewählt. Das Vorzeichen des Maxi­ malwertes muß hier berücksichtigt werden, da die Filterwerte F positiv und ne­ gativ sein können. Für den Übergang von Schwarz zu "Nicht-Schwarz" sind die Filterwerte F negativ, für den Übergang von "Nicht-Schwarz" zu Schwarz sind sie positiv. Daher wird in dem hier betrachteten Beispiel zur Ermittlung der lin­ ken Seite des relevanten Bildausschnitts nach einer Geraden mit einem negati­ ven Maximalwert der oben beschriebenen Summe gesucht. Für die rechte Seite des relevanten Bildausschnitts muß entsprechend nach einer Geraden mit ei­ nem positiven Maximalwert dieser Summe gesucht werden.
Fig. 5 zeigt den Suchbereich für die linke Seite des relevanten Bildausschnitts. Entlang einer waagerechten Strecke wird im Abstand s vom Punkt A ein Punkt G festgelegt. Durch den Punkt G werden unter verschiedenen Winkeln α Gera­ den (8) gelegt. Für jede der Geraden wird die Summe der Filterwerte F entlang der Geraden gebildet. Diese Zahl wird in eine α,s-Matrix (9) unter der durch α und s definierten Spalte und Zeile eingetragen. Jede Zelle der Matrix entspricht einer der geprüften Geraden. Durch Variation von s und α wird in dieser Weise eine Vielzahl von Geraden untersucht. Da in diesem Fall nach einer nähe­ rungsweise senkrechten Geraden gesucht wird, kann der Parameter s auf einen Streifen und α auf einen kleinen Winkelbereich eingeschränkt werden, um die benötigte Verarbeitungszeit zu verringern.
-smax ≦ s ≦ + smax
max ≦ α ≦ + αmax. (6)
Für die Begrenzungen wird beispielsweise smax=10 mm und αmax=15° ge­ wählt.
Nach der Suchoperation wird festgestellt, welche Zelle der α,s-Matrix (9) den größten positiven bzw. negativen Zahlenwert enthält. Wie oben erläutert, wird für die linke Seite des relevanten Bildausschnitts und für den Fall eines schwar­ zen Bildrandes nach einem negativen Maximalwert gesucht. Die zugehörigen Werte von s und α definieren eine Gerade, die die entsprechende Seite des relevanten Bildausschnitts am genauesten wiedergibt. Ausgehend von den Eckpunkten B, C, D des umschreibenden Rechtecks (7) geschieht die Suche und Bestimmung der optimal angepaßten Geraden für die restlichen drei Seiten des relevanten Bildausschnitts in entsprechender Weise.
Die Strategie für die Suche nach der optimal angepaßten Geraden mit Hilfe der Hough-Transformation kann natürlich in vielfältiger Weise variiert werden. Der Punkt G, durch den die Suchgeraden führen, muß nicht wie in Fig. 5 gezeigt am oberen Rand des umschreibenden Rechtecks (7) liegen. Er kann z. B. auch am unteren Rand liegen oder auf halber Höhe des Rechtecks (7). Wichtig ist nur, daß in einem definierten Suchbereich um die anzupassende Seite des relevan­ ten Bildausschnitts herum systematisch alle bezüglich Position und Winkel möglichen Geraden nach dem Prinzip der Hough-Transformation untersucht werden. Die Suchstrategie kann auch noch im Hinblick auf die Verarbeitungs­ zeit optimiert werden, wenn z. B. die Parameter s und α zunächst in groben Schritten variiert werden und dann um das positive bzw. negative Maximum der Hough-Transformierten herum die Untersuchung mit feineren Schritten fortge­ setzt wird.
Die gefundenen angepaßten Geraden für die vier Seiten des relevanten Bild­ ausschnitts ergeben im allgemeinen kein Viereck mit rechten Winkeln. Deshalb wird im letzten Verarbeitungsschritt der Erfindung aus den angepaßten Gera­ den ein Bildausschnitt-Rechteck gebildet. Das kann in vielfältiger Weise ge­ schehen. Eine bevorzugte Methode ist:
  • a) Mittelung der Winkel aller vier Geraden (wobei für zwei Geraden 90° ad­ diert bzw. subtrahiert werden). Dabei werden die Winkel mit dem Wert der Hough-Transformation gewichtet, da ein Winkel um so "sicherer" ist, je größer der (positive bzw. negative) Wert der Hough-Transformierten für die entsprechende Gerade ist.
  • b) Prüfung, ob ein Winkel vom Mittelwert um mehr als einen bestimmten Be­ trag abweicht. Wenn ja, wird der Mittelwert aus den verbleibenden drei Ge­ raden gebildet.
  • c) Bestimmung des Bildausschnitt-Rechtecks mit den vier Geraden unter Ver­ wendung des mittleren Winkels (für zwei Geraden um 90° modifiziert).
Nach der Bestimmung des relevanten Bildausschnitts werden die gefundenen Koordinaten und der Winkel zur Einstellung des Scanners für den weiteren Ab­ lauf des Scanvorgangs verwendet z. B. zur Ermittlung von Einstellungsparame­ tern für Gradation, Farbkorrektur usw. aus den relevanten Bilddaten der Vor­ wegabtastung (Prescan) und später zur hochaufgelösten Abtastung und zur Drehwinkelkorrektur der gescannten Bilddaten.

Claims (9)

1. Verfahren zur Erfassung der Geometriedaten, wie Position, Abmessungen und Winkellage, des relevanten Bildausschnitts einer Bildvorlage, dadurch gekennzeichnet, daß die Geometriedaten automatisch durch Abtastung der Bildvorlage und Analyse der Scandaten ermittelt werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß aus den Scan­ daten der Bildvorlage ein Helligkeitsbild gewonnen wird.
3. Verfahren nach Anspruch 1 und 2, dadurch gekennzeichnet, daß das Hel­ ligkeitsbild im Bereich des Helligkeitswertes des Bildrandes verstärkt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß das Helligkeitsbild einer Kantenfilterung unterworfen wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Kantenfilterung Kanten hervorhebt, die näherungsweise horizontal und vertikal sind.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Kantenfilterung an den Dynamikumfang des Helligkeitsbildes ange­ paßt wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß in der Kanten-gefilterten Bildvorlage für den relevanten Bildausschnitt angepaßte Geraden ermittelt werden.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß die angepaßten Geraden durch eine Hough-Transformation ermittelt werden.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß aus den angepaßten Geraden die Geometriedaten des relevanten Bildausschnitts bestimmt werden.
DE1997100352 1997-01-08 1997-01-08 Verfahren zur Bestimmung der Geometriedaten des relevanten Bildausschnitts Withdrawn DE19700352A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE1997100352 DE19700352A1 (de) 1997-01-08 1997-01-08 Verfahren zur Bestimmung der Geometriedaten des relevanten Bildausschnitts
JP10530445A JP2000508460A (ja) 1997-01-08 1997-12-18 注目関連画像セクションの幾何学的データを求める方法
PCT/DE1997/002947 WO1998031135A1 (de) 1997-01-08 1997-12-18 Verfahren zur bestimmung der geometriedaten des relevanten bildausschnitts
EP97953641A EP0950311A1 (de) 1997-01-08 1997-12-18 Verfahren zur bestimmung der geometriedaten des relevanten bildausschnitts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1997100352 DE19700352A1 (de) 1997-01-08 1997-01-08 Verfahren zur Bestimmung der Geometriedaten des relevanten Bildausschnitts

Publications (1)

Publication Number Publication Date
DE19700352A1 true DE19700352A1 (de) 1998-07-09

Family

ID=7816945

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997100352 Withdrawn DE19700352A1 (de) 1997-01-08 1997-01-08 Verfahren zur Bestimmung der Geometriedaten des relevanten Bildausschnitts

Country Status (4)

Country Link
EP (1) EP0950311A1 (de)
JP (1) JP2000508460A (de)
DE (1) DE19700352A1 (de)
WO (1) WO1998031135A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19836071A1 (de) * 1998-08-10 2000-02-17 Schlafhorst & Co W Verfahren zur Erkennung von Fadenresten auf Spinnkopshülsen
EP1699015A2 (de) * 2001-01-17 2006-09-06 Fuji Photo Film Co., Ltd. Bildkonturbestimmungsverfahren, Bildkonturbestimmungsgerät, Speichermedium für Bildkonturbestimmungsprogramm, Bildeingabegerät und Speichermedium für Eingabeprogramm
DE10064043B4 (de) * 1999-12-22 2013-07-04 Sagem Communications Verfahren zur Bildabtastung mit einem Scanner und Gerät zum Scannen mit automatischer Bestimmung der abzutastenden Zone

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7457010B2 (en) 2003-05-29 2008-11-25 Hewlett-Packard Development Company, L.P. System and method for fast scanning

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4887151A (en) * 1986-06-30 1989-12-12 Canon Kabushiki Kaisha Encoding apparatus for color image data with block-by-block individual quantizing or individual encoding of luminosity, structure, and color information
DE3335657C2 (de) * 1982-10-01 1989-12-28 Canon K.K., Tokio/Tokyo, Jp
US4928167A (en) * 1986-09-02 1990-05-22 Fuji Photo Film Co., Ltd. Method of and apparatus for executing tone correction on an image according to a correction level
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
DE4105284A1 (de) * 1991-02-20 1992-11-05 Bacher Gmbh B Verfahren und vorrichtung zur videounterstuetzten montage
DE4311172C2 (de) * 1992-04-06 1996-03-28 Ricoh Kk Verfahren und Einrichtung zum Identifizieren eines Schrägenwinkels eines Vorlagenbildes
US5528387A (en) * 1994-11-23 1996-06-18 Xerox Corporation Electronic image registration for a scanner

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07113969B2 (ja) * 1986-03-05 1995-12-06 キヤノン株式会社 画像処理方法
US4774569A (en) * 1987-07-24 1988-09-27 Eastman Kodak Company Method for adaptively masking off a video window in an overscanned image
US4962539A (en) * 1988-02-18 1990-10-09 Fuji Photo Film Co., Ltd. Method of recognizing layout and subdivision patterns of radiation images
JPH0820367B2 (ja) * 1991-04-19 1996-03-04 株式会社イナックス タイルユニットの検査方法
JPH05258146A (ja) * 1992-03-13 1993-10-08 Glory Ltd 紙葉類の斜行データ補正装置
JPH05344318A (ja) * 1992-06-10 1993-12-24 Canon Inc 画像入力装置
US5568571A (en) * 1992-12-14 1996-10-22 University Microfilms, Inc. Image enhancement system
US5818976A (en) * 1993-10-25 1998-10-06 Visioneer, Inc. Method and apparatus for document skew and size/shape detection
JPH07220066A (ja) * 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd 画像処理装置
JPH08294007A (ja) * 1995-04-20 1996-11-05 Mita Ind Co Ltd 画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3335657C2 (de) * 1982-10-01 1989-12-28 Canon K.K., Tokio/Tokyo, Jp
US4887151A (en) * 1986-06-30 1989-12-12 Canon Kabushiki Kaisha Encoding apparatus for color image data with block-by-block individual quantizing or individual encoding of luminosity, structure, and color information
US4928167A (en) * 1986-09-02 1990-05-22 Fuji Photo Film Co., Ltd. Method of and apparatus for executing tone correction on an image according to a correction level
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
DE4105284A1 (de) * 1991-02-20 1992-11-05 Bacher Gmbh B Verfahren und vorrichtung zur videounterstuetzten montage
DE4311172C2 (de) * 1992-04-06 1996-03-28 Ricoh Kk Verfahren und Einrichtung zum Identifizieren eines Schrägenwinkels eines Vorlagenbildes
US5528387A (en) * 1994-11-23 1996-06-18 Xerox Corporation Electronic image registration for a scanner

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
08191391 A *
JP Patents Abstracts of Japan: 08161390 A *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19836071A1 (de) * 1998-08-10 2000-02-17 Schlafhorst & Co W Verfahren zur Erkennung von Fadenresten auf Spinnkopshülsen
US6580813B1 (en) 1998-08-10 2003-06-17 W. Schlafhorst Ag & Co. Method and apparatus for detecting residual yarn on spinning cop tubes
DE10064043B4 (de) * 1999-12-22 2013-07-04 Sagem Communications Verfahren zur Bildabtastung mit einem Scanner und Gerät zum Scannen mit automatischer Bestimmung der abzutastenden Zone
EP1699015A2 (de) * 2001-01-17 2006-09-06 Fuji Photo Film Co., Ltd. Bildkonturbestimmungsverfahren, Bildkonturbestimmungsgerät, Speichermedium für Bildkonturbestimmungsprogramm, Bildeingabegerät und Speichermedium für Eingabeprogramm
EP1699015A3 (de) * 2001-01-17 2006-10-18 Fuji Photo Film Co., Ltd. Bildkonturbestimmungsverfahren, Bildkonturbestimmungsgerät, Speichermedium für Bildkonturbestimmungsprogramm, Bildeingabegerät und Speichermedium für Eingabeprogramm

Also Published As

Publication number Publication date
EP0950311A1 (de) 1999-10-20
JP2000508460A (ja) 2000-07-04
WO1998031135A1 (de) 1998-07-16

Similar Documents

Publication Publication Date Title
DE4309878C2 (de) Verfahren und Einrichtung zur Analyse und Korrektur der Bildgradation in Bildvorlagen
DE19842572B4 (de) Verfahren zur automatischen Entfernung von Bildfehlern
DE4310727C2 (de) Verfahren und Einrichtung zur Analyse von Bildvorlagen
DE69015235T2 (de) Vorrichtung und Methode zur Umwandlung eines punktorganisierten einfarbigen Bildes in ein Grauwertbild mittels Operationen in einer Suchtabelle.
DE69432585T2 (de) Verfahren und Gerät zur Auswahl von Text und/oder Non-Text-Blöcken in einem gespeicherten Dokument
DE4202579C2 (de) System zur Bearbeitung von Dokumenten
DE69026159T2 (de) Bildverarbeitungsgerät
DE3047633A1 (de) Verfahren zur automatischen bestimmung von farbeinstellbedingungen fuer ein reproduktionsbild
DE4002298C2 (de) Verfahren und Vorrichtung zur automatischen Korrektur von Farbstichen bei der elektronischen Bildverarbeitung
DE3935067C2 (de)
DE69217095T2 (de) Verfahren und Gerät zur Bildverarbeitung durch Einstellung der Bildverarbeitungsbedingungen beruhend auf Ausführungsangaben
DE19914518A1 (de) Verfahren und Vorrichtung zur Lichtquellenunterscheidung, Hautfarbenkorrektur und Farbbildkorrektur und computerlesbares Speichermedium dafür
DE10136423A1 (de) Kantenverbesserung von Graustufenbildern
DD150956A5 (de) Verfahren und schaltungsanordnung zur partiellen elektronischen retusche bei der farbbildreproduktion
DE10137211A1 (de) Kantenverbesserungsprozessor und Verfahren mit einstellbarer Graustufenausgabe
DE3839299A1 (de) Bildverarbeitungseinrichtung
DE19904997A1 (de) Automatische Farbausfällung unter Verwendung von Luminanz/Chrominanz-Zwischenraumverarbeitung
EP0059705B1 (de) Verfahren und schaltungsanordnung zur partiellen korrektur der zeichnung bei der farbbildreproduktion
DE19924143A1 (de) Apparat für Abschattungskorrektur in einem Bildaufnahmesystem und Verfahren dafür
DE3324736A1 (de) Eingabe-/ausgabesystem fuer die bilddarstellung
DE4309879C2 (de) Verfahren und Einrichtung zur Analyse des Bildumfangs von Bildvorlagen
DE19700318A1 (de) Verfahren zur Bestimmung der Geometriedaten von Abtastvorlagen
DE3303841C2 (de) Musterprüfeinrichtung und Verfahren zum Prüfen eines Musters
DE19700352A1 (de) Verfahren zur Bestimmung der Geometriedaten des relevanten Bildausschnitts
DE3843322C2 (de) Verfahren und Vorrichtung zur Bildbearbeitung

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8141 Disposal/no request for examination