DE10352274A1 - Optischer Sensor - Google Patents

Optischer Sensor Download PDF

Info

Publication number
DE10352274A1
DE10352274A1 DE10352274A DE10352274A DE10352274A1 DE 10352274 A1 DE10352274 A1 DE 10352274A1 DE 10352274 A DE10352274 A DE 10352274A DE 10352274 A DE10352274 A DE 10352274A DE 10352274 A1 DE10352274 A1 DE 10352274A1
Authority
DE
Germany
Prior art keywords
optical sensor
sensor according
line
optics
output signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10352274A
Other languages
English (en)
Other versions
DE10352274B4 (de
Inventor
Jürgen Schick
Jörg Droemer
Rolf Banschbach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leuze Electronic GmbH and Co KG
Original Assignee
Leuze Electronic GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leuze Electronic GmbH and Co KG filed Critical Leuze Electronic GmbH and Co KG
Priority to DE10352274A priority Critical patent/DE10352274B4/de
Publication of DE10352274A1 publication Critical patent/DE10352274A1/de
Application granted granted Critical
Publication of DE10352274B4 publication Critical patent/DE10352274B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H23/00Registering, tensioning, smoothing or guiding webs
    • B65H23/02Registering, tensioning, smoothing or guiding webs transversely
    • B65H23/0204Sensing transverse register of web
    • B65H23/0216Sensing transverse register of web with an element utilising photoelectric effect
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H2220/00Function indicators
    • B65H2220/09Function indicators indicating that several of an entity are present
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H2553/00Sensing or detecting means
    • B65H2553/40Sensing or detecting means using optical, e.g. photographic, elements
    • B65H2553/41Photoelectric detectors
    • B65H2553/412Photoelectric detectors in barrier arrangements, i.e. emitter facing a receptor element
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H2553/00Sensing or detecting means
    • B65H2553/40Sensing or detecting means using optical, e.g. photographic, elements
    • B65H2553/44Involving light guide, e.g. optical fibres

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft einen optischen Sensor (1) zur Erfassung von Objektstrukturen mit einer Kameraanordnung, bestehend aus zwei Zeilenkameras (5, 5') sowie diesen vorgeordneten Optiken (6, 6'). Die optischen Achsen (9, 9') der auf ein Objekt ausgerichteten Optiken (6, 6') verlaufen in verschiedenen Winkeln, so dass von dem Objekt ausgehende Lichtstrahlen (10, 10') mittels der Optiken (6, 6') auf die jweils zugeordnete Zeilenkamera (5, 5') abgebildet werden. Mit einer Auswerteeinheit erfolgt die Ermittlung der räumlichen Lage von Objektstrukturen des Objekts anhand der Ausgangssignale der Zeilenkameras (5, 5').

Description

  • Die Erfindung betrifft einen optischen Sensor.
  • Derartige optische Sensoren werden zur Detektion von Objektstrukturen eingesetzt, wobei derartige Objektstrukturen insbesondere von Kanten von Objekten gebildet sein können.
  • Ein Beispiel hierfür ist die Detektion der Kantenlagen von in Druckmaschinen geförderten Papierbahnen. Für derartige Anwendungen werden typischerweise optische Sensoren eingesetzt, welche als Sensorelement einen Zeilensensor, wie zum Beispiel eine CCD-Zeile, aufweisen. Ein derartiger optischer Sensor ist beispielsweise aus der DE 198 50 270 A1 bekannt.
  • Zur Detektion der Kantenlagen ist der optische Sensor in vorgegebenem Abstand oberhalb einer Transportebene montiert, in welcher die Papierbahn in der Druckmaschine gefördert wird, so dass mit dem Zeilensensor der Bereich der Kante der Papierbahn erfasst wird. Aus dem mit dem Zeilensensor erfassten Kontrastmuster wird die Lage der Papierbahn innerhalb der Transportebene ermittelt.
  • Bedingt durch die Transport- und Bearbeitungsprozesse in der Druckmaschine verläuft die Papierbahn nicht gleichförmig innerhalb der Transportebene. Insbesondere tritt ein Flattern der Papierbahn auf, das heißt die Papierbahn führt eine unkontrollierte Bewegung senkrecht zur Transportebene auf. Dadurch ändert sich der Abstand der Papierbahn zum optischen Sensor. Durch diese Abstandsänderung wird eine Veränderung der mit dem Zeilensensor ermittelten Kantenlage erhalten. Aufgrund dieses Paralaxenfehlers ist somit keine hinreichend genaue Kantenlagenbestimmung der Papierbahn gewährleistet.
  • Der Erfindung liegt die Aufgabe zugrunde einen optischen Sensor der eingangs genannten Art bereitzustellen, mittels dessen eine möglichst genaue Bestimmung von Objektstrukturen durchführbar ist.
  • Zur Lösung dieser Aufgabe sind die Merkmale des Anspruchs 1 vorgesehen. Vorteilhafte Ausführungsformen und zweckmäßige Weiterbildungen der Erfindung sind in den Unteransprüchen beschrieben.
  • Der erfindungsgemäße optische Sensor dient zur Erfassung von Objektstrukturen. Hierzu weist der optische Sensor eine Kameraanordnung bestehend aus zwei Zeilenkameras sowie diesen vorgeordneten Optiken auf. Die optischen Achsen der Optiken sind in verschiedenen Winkeln verlaufend auf ein Objekt ausgerichtet, so dass von dem Objekt ausgehende Lichtstrahlen mittels der Optiken auf die jeweils zugeordnete Zeilenkamera abgebildet werden. Der erfindungsgemäße optische Sensor weist weiterhin eine Auswerteeinheit zur Ermittlung der räumlichen Lage von Objektstrukturen des Objekts anhand der Ausgangssignale der Zeilenkameras auf.
  • Ein wesentlicher Vorteil des erfindungsgemäßen optischen Sensors besteht darin, dass durch die Erfassung der räumlichen Lage von Objektstrukturen Paralaxenfehler aufgrund einer Abstandsänderung des zu erfassenden Objektes relativ zum optischen Sensor vermieden werden können. Damit können Objektstrukturen von Objekten mit einer hohen Genauigkeit erfasst werden.
  • Besonders vorteilhaft werden mit dem optischen Sensor als Objektstrukturen die Lagen von Kanten von Objekten erfasst. Insbesondere kann der optische Sensor dabei zur Ermittlung der Kantenlagen von Bögen und Bahnen, insbesondere von in Druckmaschinen geförderten Papierbögen und Papierbahnen eingesetzt werden. Da mit dem optischen Sensor die räumlichen Lagen der Kanten der Papierbögen und Papierbahnen erfasst werden, ist eine genaue Kantendetektion auch bei vorliegenden Störeinflüssen wie einem Flattern der Papierbögen oder Papierbahnen gewährleistet.
  • In einer besonders vorteilhaften Ausführungsform der Erfindung erfolgt die Ermittlung von Kantenlagen von Objekten oder allgemein von Objektstrukturen nicht unmittelbar anhand der in den Zeilenkameras generierten Ausgangssignale durch eine Schwellwertbewertung oder dergleichen.
  • Anstelle dessen werden die Ausgangssignale der Zeilenkameras zunächst differenziert. Die lokalen Maxima und/oder Minima der differenzierten Ausgangssignale definieren Bereiche von signifikanten Änderungen der Pegel der Ausgangssignale und damit Objektstrukturmerkmale wie die Kanten von Objekten. Die Lagen der lokalen Maxima und/oder Minima der differenzierten Ausgangssignale werden in der Auswerteeinheit als Grobbereiche Δx definiert, innerhalb derer das zu erfassende Objektstrukturmerkmal, insbesondere eine Objektkante, liegt.
  • In einem zweiten Schritt der in der Auswerteeinheit durchgeführten Auswertung werden zur genauen Ermittlung der Lagen der Objektstrukturmerkmale die Verläufe der Ausgangssignale in den Grobbereichen durch Stützstellenfunktionen angenähert. Insbesondere werden die Verläufe der Ausgangssignale durch Polynome angenähert. Dabei kann durch eine hinreichend große Anzahl von Stützstellen eine genaue Approximation des Verlaufs eines Ausgangssignals erhalten werden. Die Bestimmung der Lage eines Objektstrukturmerkmals erfolgt dann durch eine analytische Auswertung des Verlaufs der Stützstellenfunktion. Insbesondere für den Fall, dass die Stützstellenfunktion von einem Polynom zur Approximation des Ausgangssignals bei der Detektion einer Objektkante gebildet ist, kann die Lage der Objektkante durch Ermittlung des oder eines Wendepunktes des Polynoms innerhalb des jeweiligen Grobbereiches Δx bestimmt werden.
  • Mit diesem Verfahren kann eine äußerst genaue Bestimmung von Objektstrukturen, insbesondere der Kantenlagen von Objekten, durchgeführt werden. Besonders vorteilhaft ist hierbei, dass mit diesem Auswerteverfahren auch Objektstrukturen von transparenten oder bei teiltransparenten Objekten exakt bestimmt werden können.
  • In einer weiteren vorteilhaften Ausführungsform wird mit dem optischen Sensor vor dessen Inbetriebnahme ein Einmessvorgang durchgeführt, wodurch die Messgenauigkeit des optischen Sensors signifikant erhöht wird. Bei diesem Einmessvorgang wird ein Punkteraster von Messpunkten mit bekannten Ortskoordinaten als Sollpositionen vorgegeben. Diese Messpunkte werden von dem optischen Sensor erfasst. Die dabei registrierten Messwerte werden mit den Sollpositionen verglichen. Der Vergleich erfolgt dabei derart, dass eine Korrekturfunktion definiert wird, welche die von den Sollpositionen aufgespannten Ortsvektoren mit den von den registrierten Messwerten gebildeten Ortsvektoren verknüpft. Diese Korrekturfuktion definiert über die Korrelation der Messwerte zu den Sollwerten die systematischen Abbildungsfehler bei der Objektdetektion infolge von Bauteiltoleranzen und dergleichen. Durch die Korrektur der aktuellen Messungen während des auf den Einmessvorgang folgenden Betriebs des optischen Sensors mittels der ermittelten Korrekturfunktion können die systematischen Abbildungsfehler des optischen Sensors weitgehend eliminiert werden, wodurch die Messgenauigkeit des optischen Sensors erheblich erhöht wird.
  • Die Erfindung wird im Nachstehenden anhand der Zeichnungen erläutert. Es zeigen:
  • 1: Ausführungsbeispiel eines optischen Sensors zur Erfassung der Kantenlagen von bahnförmigen Materialien.
  • 2: Schematische Darstellung der Ausgangssignale und des Differentials der Ausgangssignale einer Zeilenkamera des optischen Sensors gemäß 1 bei der Detektion einer Kante eines nicht transparenten bahnförmigen Materials.
  • 3: Schematische Darstellung der Ausgangssignale und der Differentiale der Ausgangssignale einer Zeilenkamera des optischen Sensors gemäß 1 bei der Detektion einer Kante eines transparenten bahnförmigen Materials.
  • 1 zeigt schematisch den Aufbau eines optischen Sensors 1 zur Erfassung von Objektstrukturen. Im vorliegenden Fall werden mit dem optischen Sensor 1 die Kantenlagen einer Materialbahn 2 erfasst. Die Materialbahn 2 kann insbesondere von einer nicht transparenten Papierbahn oder einer transparenten Bahn in Form einer Folie oder dergleichen gebildet sein. Die Materialbahn 2 wird in einer nicht gesondert dargestellten bahnverarbeitenden Maschine gefördert. Dabei verläuft die Materialbahn 2 in einer horizontalen Transportebene. Entsprechend dem in 1 dargestellten Koordinatensystem verläuft die Materialbahn 2 in einer x-y-Ebene. Die Förderrichtung der Materialbahn 2 verläuft in positiver x-Richtung. Der optische Sensor 1 weist eine Kameraanordnung und eine nicht gesondert dargestellte Auswerteeinheit auf, welche in einem Gehäuse 3 integriert sind. Das Gehäuse 3 des optischen Sensors 1 ist oberhalb der Materialbahn 2 angeordnet. Der optische Sensor 1 weist zudem eine Beleuchtungseinheit 4 auf, die unterhalb der Materialbahn 2 dem Gehäuse 3 des optischen Sensors 1 gegenüberliegend angeordnet ist. Die Beleuchtungseinheit 4 ist im vorliegenden Fall von einer Neonröhre gebildet.
  • Wie aus 1 ersichtlich verläuft die ebene Unterseite des Gehäuses 3 parallel zur Materialbahn 2. Die Längsachse der Beleuchtungseinheit 4 verläuft in horizontaler Richtung parallel zur Materialbahn 2.
  • Die Kameraanordnung des optischen Sensors 1 weist zwei Zeilenkameras 5, 5' auf, wobei jeder Zeilenkamera 5, 5' eine Optik 6, 6' vorgeordnet ist. Die Zeilenkameras 5, 5' sind identisch ausgebildet und bestehen im vorliegenden Fall jeweils aus einer CCD-Zeile mit einer vorgegebenen Anzahl von CCD-Elementen. Alternativ können die Zeilenkameras 5, 5' als CMOS-Zeilen ausgebildet sein. Die CCD-Zeilen sitzen jeweils auf einer Leiterplatte 7, 7' auf, die an gegenüberliegenden Innenseiten des Gehäuses 3 fixiert sind. Die Leiterplatten 7, 7' mit den CCD-Zeilen sind an eine weitere nicht dargestellte Leiterplatte angeschlossen, auf welcher die Auswerteeinheit angeordnet ist. Im vorliegenden Fall besteht die Auswerteeinheit aus einer Rechnereinheit, insbesondere einem Microcontroller, sowie einer Analogschaltung zur Vorverarbeitung der in den CCD-Zeilen generierten Ausgangssignale.
  • Die Optiken 6, 6' sind ebenfalls identisch ausgebildet. Dabei ist jede Optik 6, 6' als abbildende Optik bestehend aus zwei Linsen 6a, 6b beziehungsweise 6a', 6b' und einer zwischen den Linsen 6a, 6b beziehungsweise 6a', 6b' angeordneten Lochblende 6e beziehungsweise 6c' ausgebildet.
  • Die Optiken 6, 6' sind jeweils in Bohrungen 8, 8' in der Gehäusewand an der Unterseite des Gehäuses 3 gelagert. Die Längsachsen der Bohrungen 8, 8' sind derart orientiert, dass die optischen Achsen 9, 9' der Optiken 6, 6' in spitzem Winkel auf die Materialbahn 2 zulaufen und sich in der Transportebene schneiden.
  • Zur Detektion der Kanten der Materialbahn 2 wird diese mittels der Beleuchtungseinheit 4 von der Unterseite her beleuchtet. Je nach Kantenlage der Materialbahn 2 werden von der Beleuchtungseinheit 4 emittierte Lichtstrahlen 10, 10' an der Materialbahn 2 vorbei über die Optiken 6, 6' auf die jeweils zugeordneten Zeilenkameras 5, 5' geführt. Der restliche Teil der Lichtstrahlen 10, 10' trifft auf die Materialbahn 2. Je nach Materialbeschaffenheit der Materialbahn 2 durchdringt ein Teil der Lichtstahlen 10, 10' der Beleuchtungseinheit 4 die Materialbahn 2. Die von der Materialbahn 2 im Kantenbereich ausgehenden Lichtstrahlen 10, 10' werden ebenfalls über die Optiken 6, 6' auf die Zeilenkameras 5, 5' abgebildet.
  • Wie aus 1 ersichtlich werden über die erste Optik 6 geführte Lichtstrahlen 10 direkt auf die zugeordnete Zeilenkamera 5 geführt. Über die zweite Optik 6' geführte Lichtstrahlen 10' werden über einen Umlenkspiegel 11 zu der zugeordneten Zeilenkamera 5' geführt. Der Umlenkspiegel 11 ist an einem Steg 12 im Innern des Gehäuses 3 fixiert.
  • Im oberen Diagramm von 2 sind die Ausgangssignale der die erste Zeilenkamera 5 bildenden CCD-Zeile für die einzelnen CCD-Elemente bei der Detektion des Kantenbereichs einer Papierbahn dargestellt. Für die zweite CCD-Zeile ergibt sich ein im Wesentlichen entsprechender Verlauf der Ausgangssignale.
  • Die CCD-Elemente der CCD-Zeile, die durch an der Materialbahn 2 vorbei geführte Lichtstrahlen 10, 10' der Beleuchtungseinheit 4 stark belichtet sind, generieren entsprechend hohe Amplituden der Ausgangssignale. Da die Papierbahn nicht transparent ist, werden auf diese auftreffende Lichtstrahlen 10, 10' der Beleuchtungseinheit 4 stark abgeschwächt. Dementsprechend werden für die CCD-Elemente, auf welche von der Papierbahn ausgehende Lichtstrahlen 10, 10' auftreffen, Ausgangssignale mit entsprechend geringen Amplituden erhalten. Damit wird bei der Detektion einer Kante der Papierbahn der in 2, oberes Diagramm, dargestellte S-förmige Verlauf der Ausgangssignale der CCD-Zeile erhalten.
  • In einem ersten Auswerteschritt werden vorzugsweise mittels der Analogschaltung der Auswerteeinheit die Ausgangssignale differenziert. Die so differenzierten Ausgangssignale bilden Flankensignale, deren Verlauf im unteren Diagramm der 2 dargestellt ist. Wie aus diesem Diagramm ersichtlich weist der Verlauf der Flankensignale einen Signalpeak auf. Der Bereich Δx der CCD-Elemente, innerhalb derer der Signalpeak auftrifft, gibt einen Grobbereich an, innerhalb dessen die Kantenlage der Papierbahn liegt.
  • Zur exakten Bestimmung der Kantenlage wird der Verlauf der Ausgangssignale innerhalb des Grobbereichs Δx mittels einer Stützstellenfunktion angenähert. Im vorliegenden Fall ist die Stützstellenfunktion von einem Polynom P gebildet, wobei der Verlauf des Polynoms P nach der Methode der kleinsten quadratischen Abweichungen des Polynoms P bezüglich der Ausgangssignale ermittelt wird. Der Verlauf des Polynoms P kann um so exakter an den Verlauf der Ausgangssignale angepasst werden, je größer die Anzahl der Stützstellen gewählt wird. Vorzugsweise entspricht die Zahl der Stützstellen der Zahl der CCD-Elemente im Grobbereich Δx.
  • Die Bestimmung der Kantenlage erfolgt anschließend analytisch anhand des Verlaufs der Stützstellenfunktion. Im vorliegenden Fall wird die Kantenlage nach der Wendepunktmethode bestimmt, das heißt der Wendepunkt des Polynoms P definiert die Lage x0 der Kante.
  • Diese Auswertung wird in identischer Weise für die Ausgangssignale der zweiten CCD-Zeile durchgeführt. Anschließend wird in bekannter Weise aus den mit den CCD-Zeilen registrierten Kantenlagen bei bekannter räumlicher Anordnung der Zeilenkameras 5, 5' und der Optiken 6, 6' sowie der Transportebene der Papierbahn die räumliche Lage der Kante der Papierbahn in der Auswerteeinheit berechnet und als Ausgangsgröße vom optischen Sensor 1 ausgegeben.
  • 3 zeigt die Verläufe der Ausgangssignale einer CCD-Zeile und deren Differentiale für den Fall der Detektion einer transparenten oder teiltransparenten Materialbahn 2. Im Unterschied zur Detektion einer nicht transparenten Papierbahn werden die Lichtstrahlen 10, 10' bei Durchgang durch die transparente Materialbahn 2 weniger stark geschwächt. Eine starke Signalabschwächung der Ausgangssignale wird im Bereich der Kanten der Materialbahn 2 aufgrund von Lichtstreuungen an der Kante erhalten.
  • Dementsprechend wird im vorliegenden Fall kein S-förmiger Verlauf der Ausgangssignale der CCD-Zeile erhalten. Vielmehr weist der Verlauf der Ausgangssignale im Kantenbereich der Materialbahn 2 einen Peak auf.
  • Auch in diesem Fall werden zur Kantenlagenbestimmung der Materialbahn 2 die Ausgangssignale der CCD-Zeilen differenziert. Die entsprechenden differenzierten Ausgangssignale sind in 3 für eine der CCD-Zeilen dargestellt. Im vorliegenden Fall werden durch die Differenzierung des Ausgangssignals positive Flankensignale und negative Flankensignale gewonnen, die im zweiten und dritten Diagramm der 3 dargestellt sind. Der Signalpeak der positiven Flankensignale definiert im vorliegenden Fall den Grobbereich Δx, innerhalb dessen die Kante der Materialbahn 2 registriert wurde.
  • Analog zu dem Beispiel gemäß 2 wird auch in diesem Fall der Verlauf der Ausgangssignale innerhalb des Grobbereichs Δx durch ein Polynom P angenähert. Der Wendepunkt des Polynoms P definiert wiederum die Lage x0 der Kante der Materialbahn 2.
  • In weiterer Übereinstimmung mit dem Ausführungsbeispiel gemäß 2 wird auch in diesem Fall aus den mit den beiden CCD-Zeilen registrierten Kantenlagen die räumliche Lage der Kante der Materialbahn 2 berechnet.
  • Durch die Berechnung der räumlichen Lagen der Kanten in der x-z-Ebene von Materialbahnen 2 bei der Anordnung gemäß 1 können Paralaxenfehler bei der Kantendetektion vermieden werden. Dies bedeutet, dass eine fehlerfreie Lage der Kante der Materialbahn 2 in der x-y-Ebene auch dann gegeben ist, wenn sich die Materialbahn 2 beispielsweise durch Flattern in z-Richtung bewegt.
  • Infolge von Bauteiltoleranzen und dergleichen liefern die optischen Komponenten des optischen Sensors 1 keine exakte Abbildung der Kantenposition der Materialbahn 2.
  • Um diese Ungenauigkeiten zu eliminieren, wird vor Inbetriebnahme ein Einmessvorgang durchgeführt, bei welchem Korrekturwerte in Form einer Korrekturfunktion ermittelt werden, welche zur Korrektur der nachfolgend ermittelten Messwerte für die Kantenpositionen verwendet wird.
  • Zur Durchführung des Einmessvorgangs werden an einem nicht dargestellten Verschiebetisch, auf welchem die Papierbahnen gefördert werden, mehrere Korrekturmesspunkte vorgegeben, die durch Vektoren (x, y) in der x-y-Ebene definiert sind. Die für die diese Korrekturmesspunkte erhaltenen Messwerte bilden weitere Vektoren (f, n) gleicher Dimensionen. Aus der Abweichung der Messwerte von den Sollwerten bildenden Korrekturmesspunkten wird die Korrekturfunktion als Maß für den Abbildungsfehler des optischen Sensors 1 abgeleitet.
  • Die Ermittlung der Korrekturfunktion aus diesen Vektoren wird nachstehend anhand eines Beispiels erläutert, bei welchem acht Korrekturmesspunkte für die Durchführung des Einmessvorganges verwendet werden. Generell ist die Anzahl der Korrekturmesspunkte jedoch variabel.
  • Im vorliegenden Beispiel werden als Vektoren (x, y) folgende acht Korrekturmesspunkte am Verschiebetisch eingestellt und als Sollwerte vorgegeben:
    Figure 00110001
  • Die Vermessung der Korrekturmesspunkte mit dem optischen Sensor 1 liefert als Messwerte den Vektor (f, n):
    Figure 00110002
  • Die Korrekturmesswerte (x, y) werden mit den Messwerten (f, n) zur Festlegung der Korrekturfunktion gemäß folgendem Ansatz verknüpft:
    Figure 00110003
  • Der Ansatz ist derart gewählt, dass die Verknüpfung des Vektors a der Koeffizienten ai mit dem Vektor x und die Verknüpfung des Vektors b der Koeffizienten bi mit dem Vektor x über dieselbe Matrix A gemäß den folgenden Beziehungen erfolgt: x = A · a y = A · b
  • Dabei sind die Koeffizienten Aij der Matrix durch die Koordinaten der Vektoren (f, n) der Messwerte wie folgt definiert Ai,0 := 1 Ai,1 := ξi Ai,2 := ηi Ai,3 := ξi · ηi Ai,4 := (ξi)2 Ai,5 := (ηi)2 Ai,6 := (ξi)2 · ηi wobei i = 0, ... 7.
  • Die Koeffizienten ai des Vektors a und die Koeffizienten bi des Vektors b definieren die Korrekturfunktion und werden durch Lösen der folgenden Gleichungssysteme bestimmt a = A–1 · x b = A–1 · Ywobei zur Bestimmung der Koeffizienten die Korrekturmesswerte xi, yi in die Gleichungssysteme eingesetzt werden.
  • Während des auf den Einmessvorgang folgenden Betriebs des optischen Sensors 1 werden die mit diesem ermittelten räumlichen Kantenlagen f, n bei der Kantendetektion mittels der durch die Vektoren a, b definierten Korrekturfunktion korrigiert, wodurch als Ausgangsgrößen des optischen Sensors 1 folgende korrigierten Messwerte x, y ausgegeben werden.
  • Figure 00130001
  • 1
    Optischer Sensor
    2
    Materialbahn
    3
    Gehäuse
    4
    Beleuchtungseinheit
    5
    Zeilenkamera
    5'
    Zeilenkamera
    6
    Optik
    6'
    Optik
    6a
    Linse
    6a'
    Linse
    6b
    Linse
    6b'
    Linse
    6c
    Lochblende
    6c'
    Lochblende
    7
    Leiterplatte
    7'
    Leiterplatte
    8
    Bohrung
    8'
    Bohrung
    9
    Optische Achse
    9'
    Optische Achse
    10
    Lichtstrahlen
    10'
    Lichtstrahlen
    11
    Umlenkspiegel
    12
    Steg

Claims (19)

  1. Optischer Sensor zur Erfassung von Objektstrukturen mit einer Kameraanordnung bestehend aus zwei Zeilenkameras (5, 5') sowie diesen vorgeordneten Optiken (6, 6'), wobei die optischen Achsen (9, 9') der Optiken (6, 6') in verschiedenen Winkeln verlaufend auf ein Objekt ausgerichtet sind, so dass von dem Objekt ausgehende Lichtstrahlen (10, 10') mittels der Optiken (6, 6') auf die jeweils zugeordnete Zeilenkamera (5, 5') abgebildet werden, und mit einer Auswerteeinheit zur Ermittlung der räumlichen Lage von Objektstrukturen des Objekts anhand der Ausgangssignale der Zeilenkameras (5, 5').
  2. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass dieser eine Beleuchtungseinheit (4) zur Beleuchtung der zu erfassenden Objekte aufweist.
  3. Optischer Sensor nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Objektstrukturen von Kanten von Objekten gebildet sind.
  4. Optischer Sensor nach Anspruch 3, dadurch gekennzeichnet, dass die Objekte von in einer Transportebene geförderten bahn- oder bogenförmigen Materialien gebildet sind.
  5. Optischer Sensor nach Anspruch 4, dadurch gekennzeichnet, dass die Objekte von Papierbögen oder Papierbahnen gebildet sind.
  6. Optischer Sensor nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass der Schnittpunkt der optischen Achsen (9, 9') der Optiken (6, 6') in der Transportebene liegt.
  7. Optischer Sensor nach einem der Ansprüche 4–6, dadurch gekennzeichnet, dass die Kameraanordnung oberhalb der Transportebene und die Beleuchtungseinheit (4) unterhalb der Transportebene angeordnet ist.
  8. Optischer Sensor nach einem der Ansprüche 1–7, dadurch gekennzeichnet, dass die Kameraanordnung und die Auswerteeinheit in einem Gehäuse (3) integriert sind.
  9. Optischer Sensor nach Anspruch 8, dadurch gekennzeichnet, dass die Optiken (6, 6') in Bohrungen (8, 8') in einer die Unterseite des Gehäuses (3) bildenden Gehäusewand integriert sind.
  10. Optischer Sensor nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass die Zeilenkameras (5, 5') an gegenüberliegend angeordneten Innenseiten des Gehäuses (3) fixiert sind.
  11. Optischer Sensor nach Anspruch 10, dadurch gekennzeichnet, dass erste Lichtstrahlen (10) über eine erste Optik (6) direkt zur zugeordneten ersten Zeilenkamera (5) geführt sind, und dass zweite Lichtstrahlen (10') über eine zweite Optik (6') und einen im Innenraum des Gehäuses (3) fixierten Umlenkspiegel (11) zur zweiten Zeilenkamera (5') geführt sind.
  12. Optischer Sensor nach einem der Ansprüche 1–11, dadurch gekennzeichnet, dass die Optiken (6, 6') und die Zeilenkameras (5, 5') der Kameraanordnung jeweils identisch ausgebildet sind.
  13. Optischer Sensor nach Anspruch 12, dadurch gekennzeichnet, dass die Zeilenkameras (5, 5') jeweils von einer CCD-Zeile oder einer CMOS-Zeile gebildet sind.
  14. Optischer Sensor nach einem der Ansprüche 12 oder 13, dadurch gekennzeichnet, dass die Optiken (6, 6') jeweils von zwei Linsen (6a, 6a', 6b, 6b') sowie eine zwischen diesen angeordneten Lochblende (6c, 6c') gebildet sind.
  15. Optischer Sensor nach einem der Ansprüche 2–14, dadurch gekennzeichnet, dass die Beleuchtungseinheit (4) von einer Neonröhre gebildet ist.
  16. Optischer Sensor nach einem der Ansprüche 3–15, dadurch gekennzeichnet, dass in der Auswerteeinheit aus den Ausgangssignalen jeder Zeilenkamera (5, 5') ein Kantenlagensignal ermittelt wird, und dass aus den Kantenlagensignalen die räumliche Lage der Kante eines Objekts berechnet wird.
  17. Optischer Sensor nach Anspruch 16, dadurch gekennzeichnet, dass in der Auswerteeinheit jeweils das Differential der Ausgangssignale der Zeilenkameras (5, 5') gebildet wird, und dass aus jedem Differential ein Grobbereich (Δx) einer Kantenlage abgeleitet wird.
  18. Optischer Sensor nach Anspruch 17, dadurch gekennzeichnet, dass innerhalb eines Grobbereiches (Δx) der Verlauf der Ausgangssignale durch eine Stützstellenfunktion angenähert wird, und dass aus der Stützstellenfunktion das Kantenlagensignal analytisch berechnet wird.
  19. Optischer Sensor nach einem der Ansprüche 1–18, dadurch gekennzeichnet, dass vor dessen Inbetriebnahme ein Einmessvorgang durchge führt wird, bei welchem Objekte in vorgegebenen Sollpositionen detektiert werden, wobei aus dem Vergleich der dabei registrierten Messwerte mit den Sollpositionen Korrekturwerte für die Erfassung der Objektstrukturen abgeleitet werden.
DE10352274A 2002-11-11 2003-11-08 Verfahren zur Erfassung von Objektstrukturen mittels eines optischen Sensors Expired - Fee Related DE10352274B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10352274A DE10352274B4 (de) 2002-11-11 2003-11-08 Verfahren zur Erfassung von Objektstrukturen mittels eines optischen Sensors

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10252699.0 2002-11-11
DE10252699 2002-11-11
DE10352274A DE10352274B4 (de) 2002-11-11 2003-11-08 Verfahren zur Erfassung von Objektstrukturen mittels eines optischen Sensors

Publications (2)

Publication Number Publication Date
DE10352274A1 true DE10352274A1 (de) 2004-06-03
DE10352274B4 DE10352274B4 (de) 2009-02-26

Family

ID=32239994

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10352274A Expired - Fee Related DE10352274B4 (de) 2002-11-11 2003-11-08 Verfahren zur Erfassung von Objektstrukturen mittels eines optischen Sensors

Country Status (1)

Country Link
DE (1) DE10352274B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007025910A1 (de) * 2007-06-01 2008-12-04 Windmöller & Hölscher Kg Hintergrundbeleuchtung
EP2093173A1 (de) * 2008-02-19 2009-08-26 Texmag GmbH Vertriebsgesellschaft Vorrichtung und Verfahren zur Detektion von Orientierungsmerkmalen auf einer Materialbahn
EP2762430A3 (de) * 2013-01-30 2015-08-19 Fife Corporation Steuerung zur Interpretation eines natürlichen Wechselwirkungssensors zum Handhaben eines Bandes

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4040225C2 (de) * 1990-12-15 1994-01-05 Leuze Electronic Gmbh & Co Reflexions-Lichttaster
DE4130119C2 (de) * 1991-09-11 1994-04-28 Leuze Electronic Gmbh & Co Optische Distanzmeßeinrichtung
DE19850270B4 (de) * 1997-11-04 2006-10-26 Leuze Electronic Gmbh & Co Kg Optoelektronische Vorrichtung
CH693468A5 (de) * 1998-12-16 2003-08-15 Hera Rotterdam Bv Verfahren und Vorrichtung für die Detektion oder Lagebestimmung von Kanten.
DE19944104A1 (de) * 1999-09-15 2001-03-22 Loedige Foerdertechnik Meßeinrichtung für die Inspektion von Werkstückaufnahmegestellen oder -behältern
DE10134305B4 (de) * 2000-07-18 2007-01-11 Leuze Electronic Gmbh & Co Kg Optoelektronische Vorrichtung

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007025910A1 (de) * 2007-06-01 2008-12-04 Windmöller & Hölscher Kg Hintergrundbeleuchtung
DE102007025910B4 (de) * 2007-06-01 2013-08-29 Windmöller & Hölscher Kg Hintergrundbeleuchtung
EP2093173A1 (de) * 2008-02-19 2009-08-26 Texmag GmbH Vertriebsgesellschaft Vorrichtung und Verfahren zur Detektion von Orientierungsmerkmalen auf einer Materialbahn
US8476611B2 (en) 2008-02-19 2013-07-02 Texmag Gmbh Vertriebsgesellschaft Systems and methods for the detection of orientation features on a material web
US8729513B2 (en) 2008-02-19 2014-05-20 Texmag Gmbh Vertriebsgesellschaft Systems and methods for the detection of orientation features on a material web
CN101556140B (zh) * 2008-02-19 2015-05-06 得克斯玛格销售有限责任公司 用于检测材料片上定向特征的设备和工艺
EP2762430A3 (de) * 2013-01-30 2015-08-19 Fife Corporation Steuerung zur Interpretation eines natürlichen Wechselwirkungssensors zum Handhaben eines Bandes
US9415963B2 (en) 2013-01-30 2016-08-16 Fife Corporation Sensor controller for interpreting natural interaction sensor for web handling
US10280025B2 (en) 2013-01-30 2019-05-07 Maxcess Americas, Inc. Sensor controller for interpreting natural interaction sensor for web handling

Also Published As

Publication number Publication date
DE10352274B4 (de) 2009-02-26

Similar Documents

Publication Publication Date Title
EP1618426B1 (de) Verfahren und anordnung zur bestimmung der fokusposition bei der abbildung einer probe
DE68925744T2 (de) Telezentrisch abbildendes System
EP1821120B1 (de) Optoelektronische Vorrichtung und Verfahren zu deren Betrieb
DE102015119707B3 (de) Verfahren zum Ausrichten eines Laserscanners und Laserscanneranordung
DE2354141C2 (de) Optisches Meßverfahren zum Untersuchen von Oberflächen und Einrichtung zur Durchführung des Verfahrens
DE4211875A1 (de) Optischer Abstandssensor
EP0716287B1 (de) Vorrichtungen zum Messen einer Lage von Bahnen oder Bogen
DE102011012611B4 (de) Verfahren und Vorrichtung zur berührungslosen Messung eines Winkels
DE4444079A1 (de) Verfahren und Vorrichtung zur Durchführung dieses Verfahrens zum Messen einer Lage von Bahnen oder Bogen
DE19506467A1 (de) Vorrichtung und Verfahren zum Messen einer Lage einer Kante von Bahnen oder Bogen
DE102019105622B4 (de) Kollimator und Verfahren zum Testen einer Kamera
DE19732668A1 (de) Vorrichtung und Verfahren zur Kalibrierung von Strahlabtastvorrichtungen
DE4439307C2 (de) Beobachtungsoptik für ein 3D-Oberflächenmeßgerät mit hoher Genauigkeit
DE102015006015A1 (de) Vorrichtung zur Messung einer Abbildungseigenschaft eines optischen Systems
DE10352274B4 (de) Verfahren zur Erfassung von Objektstrukturen mittels eines optischen Sensors
DE3323836A1 (de) Verfahren zur festlegung einer koordinate auf einer oberflaeche eines festkoerpers und vorrichtung zur durchfuehrung eines solchen verfahrens
DE10153581A1 (de) Verfahren und Vorrichtung zur Ermittlung der Wirkkontur von Rotationswerkzeugen
DE102022204539A1 (de) Verfahren zum Justieren einer Kamera
EP3953077B1 (de) Messvorrichtung zur bestimmung des biegewinkels
DE102017007590B4 (de) Verfahren und Vorrichtung zur Erfassung von dreidimensionalen Objekten auf Basis des Lichtschnittverfahrens
DE102008062458B4 (de) Messverfahren zur laserbasierten Vermessung von Werkstücken, Baugruppen und Werkzeugen
EP1273878B1 (de) Verfahren zur Detektion eines Objektes mit unterschiedlichen Auflösungen
EP3575741A1 (de) Verfahren zum berührungsfreien vermessen einer werkstückkante
DE102015114575B4 (de) Vorrichtung zur Druckbildkontrolle
DE102019102783A1 (de) Ausrichtziel und Verfahren zum Ausrichten einer Kamera

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee