DE102016100361A1 - Verfahren und Vorrichtung zum Abtasten eines Objekts mit einem bildgebenden Verfahren - Google Patents

Verfahren und Vorrichtung zum Abtasten eines Objekts mit einem bildgebenden Verfahren Download PDF

Info

Publication number
DE102016100361A1
DE102016100361A1 DE102016100361.1A DE102016100361A DE102016100361A1 DE 102016100361 A1 DE102016100361 A1 DE 102016100361A1 DE 102016100361 A DE102016100361 A DE 102016100361A DE 102016100361 A1 DE102016100361 A1 DE 102016100361A1
Authority
DE
Germany
Prior art keywords
light
different
sensors
light sources
sensitivities
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016100361.1A
Other languages
English (en)
Inventor
Bernhard Frei
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chromasens GmbH
Original Assignee
Chromasens GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chromasens GmbH filed Critical Chromasens GmbH
Priority to DE102016100361.1A priority Critical patent/DE102016100361A1/de
Publication of DE102016100361A1 publication Critical patent/DE102016100361A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0202Mechanical elements; Supports for optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/021Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using plane or convex mirrors, parallel phase plates, or particular reflectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/10Arrangements of light sources specially adapted for spectrometry or colorimetry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/10Arrangements of light sources specially adapted for spectrometry or colorimetry
    • G01J2003/102Plural sources
    • G01J2003/104Monochromatic plural sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • G01N2021/177Detector of the video camera type
    • G01N2021/1776Colour camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8822Dark field detection
    • G01N2021/8825Separate detection of dark field and bright field
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8845Multiple wavelengths of illumination or detection

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Abtasten eines Objektes mit einem bildgebenden Verfahren, wobei das Verfahren die Schritte umfasst: – Gleichzeitiges Beleuchten eines Objektes mit zumindest zwei unterschiedlichen Lichtquellen, wobei die Lichtquellen unterschiedliche Lichtspektren aufweisen, – Abtasten des Objektes mittels zumindest zweier Sensoren, die eine unterschiedliche spektrale Empfindlichkeit aufweisen, und – Separieren der Intensitäten der Lichtspektren der zumindest zwei Lichtquellen in den mit den Sensoren erfassten Sensorsignalen mittels spezifischer Empfindlichkeiten der jeweiligen Sensoren für die unterschiedlichen Lichtspektren.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Abtasten eines Objekts mit einem bildgebenden Verfahren, wobei insbesondere mindestens zwei unterschiedliche Lichtquellen zum Beleuchten des abzutastenden Objekts verwendet werden.
  • Bei der Kontrolle von Produkten mit bildgebenden Verfahren ist die Beleuchtung und insbesondere der Einfallswinkel, mit welchem das Licht auf ein abzutastendes Objekt strahlt, für die Erkennung von Fehlstellen von zentraler Bedeutung.
  • Man unterscheidet grundsätzlich die drei Beleuchtungstypen:
    • 1. Dunkelfeldbeleuchtung
    • 2. Hellfeldbeleuchtung
    • 3. Durchlichtbeleuchtung
  • Bei der Dunkelfeldbeleuchtung wird das Licht mittels Lichtstrahllenkmitteln (Reflektor, Linse) von der Lichtquelle derart umgelenkt, dass eine direkte (spiegelnde) Reflektion des Lichtes vermieden wird.. Bei der Hellfeldbeleuchtung wird das von der Lichtquelle abgegebene Licht in einem
    Winkel auf das Objekt geführt, sodass es in Richtung zu einer Kamera reflektiert wird.
  • Die Durchlichtbeleuchtung wird bei transparenten abzutastenden Objekten eingesetzt, wobei sich auf einer Seite des Objekts die Lichtquelle und auf der anderen Seite des Objekts die Sensoren zum Erfassen des Lichts, das durch das transparente Objekt hindurchgeht, angeordnet sind.
  • Bei Materialien, die sowohl diffuse und glänzende Reflektionseigenschaften haben und zudem transparent sind, können mit den drei Beleuchtungstypen gleichzeitig unterschiedliche Ausprägungen von möglichen Fehlern erkannt werden. So können z. B. mit einer Hellfeldbeleuchtung Fehler in einer Lackstruktur, mit einer Dunkelfeldbeleuchtung Fehler im Farbauftrag und mit der Durchlichtbeleuchtung Einschlüsse in einem transparenten Bereich erkannt werden.
  • Diese Beleuchtungstypen und Abwandlungen hiervon sind bekannt, um unterschiedlichste Fehler an Produkten möglichst automatisch erkennen zu können.
  • Oftmals ist es zweckmäßig, zwei unterschiedliche Beleuchtungstypen gleichzeitig vorzusehen. Da bei gleichzeitiger Ausleuchtung das Licht des einen Beleuchtungstyps sich mit dem Licht des anderen Beleuchtungstyps überlagert, ist es nicht ohne weiteres möglich, zwei unterschiedliche Beleuchtungstypen gleichzeitig zu verwenden. Man verwendet deshalb die einzelnen Beleuchtungstypen oftmals im Zeitmultiplex, d. h., dass die einzelnen Beleuchtungstypen einzeln aufeinanderfolgend eingeschaltet werden. Hierdurch stören sich die einzelnen Beleuchtungstypen nicht gegenseitig. Jedoch wird der mögliche Durchsatz bei der Abtastung der Objekte reduziert, da das Objekt nicht gleichzeitig mit allen Beleuchtungstypen abgetastet werden kann.
  • Es ist auch bekannt, die einzelnen Beleuchtungstypen mit spektral unterschiedlichen Lichtquellen auszubilden und mehrere Kameras vorzusehen, die mit speziellen Filtern versehen sind, sodass eine jede Kamera nur das Licht eines bestimmten Beleuchtungstyps empfangen kann. Eine solche Vorrichtung hat den Vorteil, dass ein zu überwachendes Objekt mit mehreren Beleuchtungstypen gleichzeitig abgetastet werden kann. Nachteilig hieran ist, dass mehrere Kameras vorzusehen sind und die Güte der Filter hoch sein muss, um das Licht der unterschiedlichen Lichtquellenpräzise zu trennen.
  • Grundsätzlich wäre es auch denkbar, eine Farbkamera zu verwenden, welche in der Regel unterschiedliche Sensoren aufweist, die jeweils für eine bestimmte Farbe bzw. einen bestimmten Spektralbereich empfindlich sind. Wenn man Lichtquellen verwenden würde, die jeweils von einem Sensortyp der Farbkamera erfasst werden würden, dann könnte man mit einer Farbkamera ohne zusätzliche Filter die einzelnen Beleuchtungstypen spektral separieren. Dies ist jedoch mit herkömmlichen, handelsüblichen Farbkameras nicht möglich, da sich die einzelnen spektralen Empfindlichkeitsbereiche unterschiedlichen Sensortypen überlappen, sodass die einzelnen Sensortypen jeweils Licht von Lichtquellen mit unterschiedlichen Lichtspektren detektieren. Hierdurch ist es nicht möglich die Sensorsignale eindeutig einer bestimmten Lichtquelle zuzuordnen. Dieser Effekt wird im Folgenden als spektrale Überkopplung bezeichnet.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum Abtasten eines Objekts mit einem bildgebenden Verfahren zu schaffen, bei dem das Objekt gleichzeitig mit unterschiedlichen Beleuchtungszyklen bestrahlt werden kann und mit einfachen und kostengünstigen Mitteln das Licht der jeweiligen Beleuchtungstypen zuverlässig detektiert werden kann.
  • Die Aufgabe wird durch die in den unabhängigen Ansprüchen angegebenen Gegenstände gelöst. Vorteilhafte Ausgestaltungen sind in den jeweiligen Unteransprüchen angegeben.
  • Ein erfindungsgemäßes Verfahren zum Abtasten eines Objekts mit einem bildgebenden Verfahren umfasst die folgenden Schritte:
    • – Gleichzeitiges Beleuchten eines Objekts mit zumindest zwei unterschiedlichen Lichtquellen, wobei die Lichtquellen unterschiedliche Lichtspektren aufweisen,
    • – Abtasten des Objekts mittels zumindest zweier Sensoren, die eine unterschiedliche spektrale Empfindlichkeit aufweisen, und
    • – Separieren der Lichtspektren der zumindest zwei Lichtquellen in den mit Sensoren erfassten Sensorsignalen mittels spezifischer Empfindlichkeiten der jeweiligen Sensoren für die unterschiedlichen Lichtspektren.
  • Der Erfinder der vorliegenden Erfindung hat erkannt, dass die eingangs erläuterte spektrale Überkopplung an den Sensoren zu Ausgangssignalen führt, die zwar nicht direkt verwertbar sind, jedoch anhand der spezifischen Empfindlichkeiten der jeweiligen Sensoren für die unterschiedlichen Lichtspektren der Lichtquellen die Lichtintensitäten, die durch diese Lichtspektren in den Sensorsignalen verursacht werden, separierbar sind. Jeder Sensortyp weist eine bestimmte spezifische Empfindlichkeit für das jeweilige von einer Lichtquelle abgestrahlte Lichtspektrum auf. Bei zwei Lichtquellen und zwei Sensoren ergeben sich hierdurch vier spezifische Empfindlichkeiten, die in einer 2×2-Matrix dargestellt werden können. Diese spezifischen Empfindlichkeiten können einfach vorab gemessen werden, indem Licht der einzelnen Lichtquellen unabhängig voneinander auf die Sensoren gelenkt wird und die Intensität der Sensorsignale erfasst wird. Wird die inverse Matrix der spezifischen Empfindlichkeiten, die im Folgenden als Separationsmatrix bezeichnet werden, mit dem Vektor der Sensorsignale multipliziert, dann erhält man einen Vektor, der die Intensitäten des Lichts der jeweiligen Lichtquellen an den Sensoren beschreibt. Man erhält somit für jede Lichtquelle einen Intensitätswert des Lichts, das von der Lichtquelle an den Sensoren angekommen ist. Die von den einzelnen Lichtquellen an den Sensoren verursachten Intensitäten sind somit separiert.
  • Hierdurch ist es nicht notwendig, mehrere Kameras und spektrale Filter hoher Güte vorzusehen. Die Detektion des Lichts kann mit einer herkömmlichen Kamera, die mehrere unterschiedliche Sensoren, die eine unterschiedliche spektrale Empfindlichkeit aufweisen, detektiert werden. Derartige Kameras sind handelsübliche Massenartikel, die kostengünstig erhältlich sind. Die Sensorsignale müssen lediglich mittels einer Separationsmatrix in die einzelnen Lichtspektren separiert werden.
  • Eine derartige Matrizenmultiplikation ist oftmals in Kameras integriert, um die Farbwiedergabe zu korrigieren. Anstelle einer herkömmlichen Korrekturmatrix zur Korrektur der Farbwiedergabe kann bei der Erfindung die Separationsmatrix verwendet werden, um die einzelnen Lichtspektren der unterschiedlichen Lichtquellen voneinander zu trennen. In einer einfachen Ausführungsform kann somit existierende Hardware verwendet werden, wobei jedoch durch den Einsatz der Separationsmatrix eine völlig andere Wirkung erzielt wird.
  • Die unterschiedlichen Lichtquellen weisen vorzugsweise Lichtstrahllenkmittel mit unterschiedlicher Geometrie auf. Lichtstrahllenkmittel umfassen Reflektoren und Linsen. Eine Hellfeldbeleuchtung weist vorzugsweise einen Reflektor und/oder eine Linse auf, welche das Licht in einem möglichst geradlinigen Lichtstrahlbündel auf das abzutastende Objekt lenken. Bei einer Dunkelfeldbeleuchtung sind ein oder mehrere Reflektoren vorgesehen, welche das Licht aus möglichst unterschiedlichen Richtungen auf das abzutastende Objekt lenken. Dementsprechend unterscheiden sich die Geometrien zwischen den Reflektoren und Linsen einer Hellfeldbeleuchtung und einer Dunkelfeldbeleuchtung.
  • Vorzugsweise wird das Objekt mit einer Farb-Kamera abgetastet, welche Sensoren mit zumindest drei spektral unterschiedlichen Lichtempfindlichkeiten aufweist. Die Sensoren sind in der Regel für die Farben Rot, Grün oder Blau empfindlich. Derartige Farb-Kameras sind als Zeilenkameras oder Flächenkameras in unterschiedlichsten Ausführungen am Markt verfügbar. Sie werden in großen Stückzahlen hergestellt, weshalb sie kostengünstig erhältlich sind. Diese Kameras weisen eine Vielzahl von Sensoren mit der gleichen spektralen Empfindlichkeit auf. Wenn sich ein solcher Kamera in ein oder in zwei Dimensionen erstreckt, dann können die einzelnen Sensoren aufgrund der Geometrie der Lichtstrahllenkmittel mit unterschiedlichen Lichtintensitäten bestrahlt werden. Meistens ergeben sich Beleuchtungsinhomogenitäten, bei denen die Lichtintensität im Randbereich geringer als im Zentrum ist. Die Sensorsignale können ortsabhängig mit entsprechenden Korrekturfaktoren korrigiert werden. Eine solche Korrektur wird als Shading-Korrektur bezeichnet.
  • Weiterhin können die einzelnen Sensoren einer Kamera erhebliche Abweichungen in der jeweiligen Empfindlichkeit aufweisen. Die Unterschiede können bis zu 10 % betragen. Dieser Effekt wird oftmals als PRNU (photo response non uniformity) bezeichnet. Auch dieser Effekt kann mit entsprechenden Korrekturwerten korrigiert werden. Diese sind für jedes Sensorelement separat zu bestimmen. Da dieser PRNU-Korrekturwert für einen jeden Sensor unterschiedlich sein kann, ist er sensorabhängig und damit wiederum ortsabhängig.
  • Da die Abweichungen aufgrund des PRNU-Effekts durch die Sensoren selbst verursacht werden, können die gemessenen Sensorwerte (sr, sg, sb) zunächst mit den PRNU-Korrekturkoeffizienten korrigiert werden, danach mit der Separationsmatrix (MSEP) separiert werden und danach mit den Korrekturfaktoren für die Beleuchtungsinhomogenitäten korrigiert werden, um die Intensitäten des von den einzelnen Lichtquellen an den Sensoren angekommenen Lichts zu erhalten. Die Beleuchtungsinhomogenitäten verursachen eine unterschiedliche Verteilung der Lichtintensität an den einzelnen Sensoren. Da das spektrale Übersprechen von der Lichtintensität abhängig ist, kann diese Korrektur nur an den bereits separierten Intensitätswerten ausgeführt werden. Mathematisch gesprochen heißt dies, dass die Korrektur der Beleuchtungsinhomogenitäten, das Separieren mittels der Separationsmatrix und die PRNU-Korrektur nicht kommutativ sind. Die Reihenfolge dieser Operationen kann daher nicht vertauscht werden.
  • Bei herkömmlichen Kameras werden oftmals der Einfluss der Beleuchtung (Shading-Effekt) und die Empfindlichkeitsunterschiede (PRNU-Effekt) mit einem Satz gemeinsamer Korrekturkoeffizienten korrigiert. Dies ist hier nicht ohne Berücksichtigung der Separationsmatrix möglich.
  • Es ist jedoch möglich, für jeden Sensor einer Kamera jeweils eine ortsabhängige Separationsmatrix anzugeben, die bereits gemäß dem PRNU-Effekt und/oder Beleuchtungsinhomogenitäten korrigiert ist.
  • Die Erfindung wird nachfolgend beispielhaft anhand der beiliegenden Zeichnung näher erläutert. Die Zeichnung zeigt in:
  • 1 schematisch eine Vorrichtung zum Abtasten von Objekten, welche entlang einer Förderrichtung bewegt werden in einer Seitenansicht,
  • 2 die Vorrichtung aus 1 in einer Frontansicht,
  • 3 die Vorrichtung aus 1 und 2 in einer Schnittansicht entlang der Linie A-A in 2,
  • 4 ein Diagramm, das Lichtspektren unterschiedlicher Lichtquellen und spektraler Empfindlichkeiten unterschiedlicher Sensoren zeigt, und
  • 5 schematisch eine Vorrichtung zum Abtasten von Objekten mit mehreren Beleuchtungseinrichtungen in einer Seitenansicht.
  • Ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung 1 zum Abtasten von Objekten ist benachbart zu einem Förderband 2 angeordnet, auf dem abzutastende Objekte 3 aufliegen und in eine Förderrichtung 4 befördert werden (1, 2). Das Förderband 2 ist aus zwei endlosen Transportriemen 5 ausgebildet, welche an den Enden des Förderbands 2 jeweils um Rollen 6 geführt sind, sodass die Transportriemen 5 jeweils einen oberen Trum 7 und einen unteren Trum 8 ausbilden. Die Transportriemen 5 sind parallel zueinander angeordnet und ein Stück voneinander beabstandet. Auf dem oberen Trum 7 der Transportriemen 5 liegen die abzutastenden Objekte 3 auf.
  • Im vorliegenden Ausführungsbeispiel umfasst die Abtastvorrichtung 1 eine obere Abtasteinheit 9 und eine untere Abtasteinheit 10.
  • Eine zur oberen Abtasteinheit 9 sehr ähnliche Beleuchtungsvorrichtung ist in der DE 10 2015 101 252.9 beschrieben, weshalb auf diese Patentanmeldung Bezug genommen wird.
  • Diese obere Abtasteinheit 9 weist zwei Reflektoranordnungen 11, 12 auf (3). Eine jede der Reflektoranordnungen 11, 12 ist aus einem rinnenförmigen Reflektor 13 und einem ebenflächigen Reflektor 14 ausgebildet. Der rinnenförmige Reflektor 13 weist eine im Querschnitt ellipsenabschnittsförmige verspiegelte Reflektorfläche 15 auf.
  • An einem Randbereich des rinnenförmigen Reflektors 13 ist jeweils eine an der Seite der Reflektorfläche 15 vorstehende Lichtquellenhalterung 16 angeordnet. An der Lichtquellenhalterung 16 sind als Leuchtmittel Leuchtdioden 17 vorgesehen. Die Leuchtdioden 17 sind derart an der Lichtquellenhalterung 16 angeordnet, dass sie mit ihrer Abstrahlrichtung auf die Reflektorfläche 15 gerichtet sind. An dem zur Lichtquellenhalterung 16 gegenüberliegenden Rand des rinnenförmigen Reflektors 13 schließt sich der ebenflächige Reflektor 14 an. Der ebenflächige Reflektor 14 weist eine verspiegelte Reflektorfläche 18 auf, die an der gleichen Seite wie die Reflektorfläche 15 des rinnenförmigen Reflektors 13 angeordnet ist.
  • Die beiden Reflektoranordnungen 11, 12 sind mit ihren Reflektorflächen 15, 18 einander gegenüberliegend angeordnet. Weiterhin sind die beiden Reflektoranordnungen 11, 12 symmetrisch zu einer Symmetrieebene 19 der Abtastvorrichtung 1 angeordnet.
  • Die obere Abtasteinheit 9 weist ein Gehäuse 20 mit zwei Längsseitenwandungen 21, zwei diametral gegenüberliegende Stirnwandungen 22 und eine Bodenwandung 23 auf. Die ebenflächigen Reflektoren 14 sind senkrecht zur Bodenwandung 23 angeordnet. Die Bodenwandung 23 ist im Bereich zwischen den beiden Reflektoranordnungen 11, 12 ausgenommen und bildet eine Durchgangsöffnung 24, aus welcher Licht austreten kann.
  • Benachbart zur Symmetrieebene 19 ist eine Halteschiene 25 angeordnet, die sich zwischen den gegenüberliegenden Stirnwandungen 22 erstreckt. Auf der Halteschiene 25 sind Leuchtdioden 26 zeilenförmig angeordnet. Die Leuchtdioden 26 sind mit ihrer Abstrahlrichtung in Richtung zur Durchgangsöffnung 24 gerichtet und bilden eine Hellfeldbeleuchtung.
  • Das von den Leuchtdioden 17 ausgestrahlte Licht wird zunächst an dem jeweils benachbarten rinnenförmigen Reflektor 13 reflektiert. Von dem rinnenförmigen Reflektor 13 wird ein Großteil des Lichts auf den ebenflächigen Reflektor 14 der gegenüberliegenden Reflektoranordnung 11, 12 gelenkt. Ein geringer Teil des von den Leuchtdioden 17 abgestrahlten Lichts wird auch direkt von dem rinnenförmigen Reflektor 13 zur Durchgangsöffnung 24 gelenkt und tritt nach außen aus.
  • Das vom ebenflächigen Reflektor 14 reflektierte Licht wird zum Großteil durch die Durchgangsöffnung 24 gelenkt. Ein geringer Teil wird zurück zum gegenüberliegenden ebenflächigen Reflektor 14 gelenkt und dort nochmals reflektiert, bevor er durch die Durchgangsöffnung 24 austritt. Diese einfach, zweifach und dreifach reflektierten Lichtstrahlen bilden ein diffuses Licht mit homogener Beleuchtungsstärke. Ein vorbestimmter, streifenförmiger Bereich benachbart zur Durchgangsöffnung 24 wird gleichmäßig ausgeleuchtet. Dieser streifenförmige Bereich wird im Folgenden als Beleuchtungsbereich 27 bezeichnet.
  • Die Leuchtdioden 17 bilden zusammen mit den Reflektoranordnungen 11, 12 eine Dunkelfeldbeleuchtung.
  • Diese Dunkelfeldbeleuchtung ist einerseits sehr kompakt ausgebildet und erzeugt andererseits eine sehr homogene Ausleuchtung im Beleuchtungsbereich 27. Im Rahmen der Erfindung können selbstverständlich andere Reflektoranordnungen vorgesehen sein, die auch eine diffuse Beleuchtung zur Ausbildung einer Dunkelfeldbeleuchtung erzeugen.
  • Die Abtastvorrichtung 1 ist mit ihrer Symmetrieebene 19 quer zur Förderrichtung 4 angeordnet.
  • Auf den beiden oberen Trumen 7 der Transportriemen 5 liegen die abzutastenden Objekte 3 auf. Die oberen Trume 7 definieren somit eine Transportebene 28.
  • Unterhalb der Transportebene 28 ist eine zeilenförmige Lichtquellenanordnung 29 in der untersten Abtasteinheit 10 angeordnet, welche sich über die gesamte Länge des Beleuchtungsbereichs 27, also im Bereich zwischen den gegenüberliegenden Stirnwandungen 22 der oberen Abtasteinheit 9 erstreckt. Die Lichtquellenanordnung 29 weist Leuchtdioden 30 auf, die zeilenförmig und mit ihrer Abstrahlrichtung in Richtung zur Durchgangsöffnung 24 ausgerichtet sind. Die Leuchtdioden 30 der unteren Abtasteinheit 10 stahlen somit Licht nach oben durch die Durchgangsöffnung 24 ab.
  • In der oberen Abtasteinheit 9 ist eine Halterung 31 zur Aufnahme einer Kamera 32 vorgesehen. Die Kamera 32 ist vorzugsweise eine Zeilenkamera, die sich insbesondere über die gesamte Länge der Abtastvorrichtung 1, also zwischen den gegenüberliegenden Stirnwandungen 22, erstreckt, um den gesamten Beleuchtungsbereich 27 abtasten zu können. Die Kamera 32 kann jedoch auch eine Flächenkamera sein.
  • Die Kamera 32 kann mit einem Zoom-Objektiv versehen sein. Die Kamera 32 ist grundsätzlich mit Blickrichtung zur Durchgangsöffnung 24 ausgerichtet.
  • Ein sich unterhalb der Durchgangsöffnung 24 befindliches Objekt 3 wird mit den Leuchtdioden 17 mit Dunkelfeldlicht, mit den Leuchtdioden 26 mit Hellfeldlicht und mit den Leuchtdioden 30 mit Durchgangslicht bestrahlt.
  • Die Lichtquellen der Dunkelfeldbeleuchtung (Leuchtdioden 17), der Hellefeldbeleuchtung (Leuchtdioden 26) und der Durchlichtbeleuchtung (Leuchtdioden 30) sind jeweils so ausgebildet, dass sie Licht mit einem unterschiedlichen Lichtspektrum abstrahlen. Im vorliegenden Ausführungsbeispiel sind die Leuchtdioden 17 für die Dunkelfeldbeleuchtung blau, die Leuchtdioden 26 für die Hellfeldbeleuchtung grün und die Leuchtdioden 30 für die Durchlichtbeleuchtung rot abstrahlende Leuchtdioden. In 4 sind das blaue Lichtspektrum 33, das grüne Lichtspektrum 34 und das rote Lichtspektrum 35 der unterschiedlichen Leuchtdioden eingezeichnet.
  • Die Kamera 32 ist eine Farb-Kamera, welche Sensoren mit unterschiedlicher spektraler Empfindlichkeit aufweist. Im vorliegenden Ausführungsbeispiel ist die Kamera 32 eine RGB-Kamera, welche Sensoren mit blauer, grüner und roter spektraler Empfindlichkeit aufweist. In 4 sind die blaue Spektralempfindlichkeit 36, die grüne spektrale Empfindlichkeit 37 und die rote spektrale Empfindlichkeit 38 eingezeichnet. Wie man dem Diagramm aus 4 entnehmen kann, überlappen die spektralen Empfindlichkeiten 36, 37 und 38 erheblich. Insbesondere die grüne spektrale Empfindlichkeit 37 überlappt stark mit der blauen spektralen Empfindlichkeit 36 und der roten spektralen Empfindlichkeit 38 und erstreckt sich bis in die Bereiche des blauen Lichtspektrums 33 und des roten Lichtspektrums 35. Aber auch die blaue spektrale Empfindlichkeit 36 und die rote spektrale Empfindlichkeit 38 erstrecken sich bis in die Bereiche der andersfarbigen Lichtspektren. Hierdurch wird die eingangs erläuterte spektrale Überkopplung verursacht.
  • Die spektrale Überkopplung kann mit folgender Formel ausgedrückt werden:
    Figure DE102016100361A1_0002
    wobei ein Vektor s mit den Koeffizienten sr, sg, sb die Sensorsignale für rot, grün und blau für einen Bildpunkt, der Vektor a mit den Koeffizienten ar, ag, ab die Antwort des abzutastenden Objekts 3 auf die Beleuchtung mit den drei Lichtspektren Rot, Blau und Grün und die Matrix MK mit den Koeffizienten k00 bis k22 die Kopplung der unterschiedlichen Lichtspektren darstellt.
  • Die Antworten ar, ag, ab stellen physikalisch die Lichtintensitäten des vom abgetasteten Objekts reflektierten bzw. durchgelassenen Lichts der drei spektral unterschiedlichen Lichtquellen am jeweiligen Bildpunkt des Sensors dar.
  • Die Koeffizienten k00 bis k22 der Kopplungsmatrix MK sind physikalisch die spezifischen Empfindlichkeiten des roten Sensors (k00, k01, k02) für das rote, blaue und grüne Lichtspektrum, des grünen Sensors (k10, k11, k12) für das rote, blaue und grüne Lichtspektrum und des blauen Sensors (k20, k21, k22) für das rote, blaue und grüne Lichtspektrum dar. Die Formel (1) kann somit auch folgendermaßen geschrieben werden: s = MK × α (2)
  • Eine Separationsmatrix MSEP wird als inverse Matrix der Kopplungsmatrix MK definiert: MSEP = M – / 1K (3)
  • Hiermit gilt: α = MSEP × s (4) wobei die Signalintensitäten (sr, sg, sb) in die Antworten bzw. Lichtintensitäten (ar, ag, ab) am jeweiligen Bildpunkt der Kamera umgesetzt bzw. separiert werden.
  • Die Kopplungskoeffizienten (k00–k22) können mit einem Kalibrierverfahren bestimmt werden. Bei dem Kalibrierverfahren werden die Hellfeldbeleuchtung, die Dunkelfeldbeleuchtung und die Durchlichtbeleuchtung unabhängig voneinander kalibriert.
  • Zum Kalibrieren der Hellfeldbeleuchtung wird ein ebenflächiges, verspiegeltes Objekt 3 verwendet, die Leuchtdioden 26 der Hellfeldbeleuchtung eingeschaltet und die Signale des roten, grünen und blauen Sensors erfasst. Diese Signalwerte bilden die entsprechenden Kopplungskoeffizienten.
  • Zum Kalibrieren der Dunkelfeldbeleuchtung wird ein Objekt 3 mit ebenflächiger, weißer Oberfläche verwendet. Dieses Objekt 3 wird mit Licht von den Leuchtdioden 17 bestrahlt und mit der Kamera werden die entsprechenden Signale für die Farben Rot, Grün und Blau erzeugt. Diese Signalwerte entsprechen den entsprechenden Kopplungskoeffizienten für die Dunkelfeldbeleuchtung.
  • Beim Kalibrieren für die Durchlichtbeleuchtung wird kein Objekt im Beleuchtungsbereich 27 vorgesehen, sodass das Licht von der unteren Abtasteinheit 10 mit den Leuchtdioden 30 ungehindert zur Kamera 32 gelangen kann. Die von der Kamera erfassten Signale für die Farben Rot, Grün und Blau bilden die Kopplungskoeffizienten für die Durchlichtbeleuchtung.
  • Beim Kalibrieren wird jeweils für einen jeden Bildpunkt ein Signalvektor s erzeugt. Vorzugsweise werden beim Kalibrieren alle Signale für die Hellfeldbeleuchtung, die Dunkelfeldbeleuchtung und die Durchlichtbeleuchtung jeweils für sich gemittelt und die Mittelwerte als Kopplungskoeffizienten verwendet. Die unterschiedliche Effizienz der Beleuchtungsarten wird durch die Wahl der Beleuchtungsstärke bzw. der Leuchtdichte berücksichtigt, sodass sie in etwa gleiche Signale an der Kamera erzeugen. Alternativ kann es zweckmäßig sein, die Kopplungskoeffizienten für die Hellfeldbeleuchtung, die Dunkelfeldbeleuchtung und die Durchlichtbeleuchtung mit jeweils spezifischen Normierungskoeffizienten für die Hellfeldbeleuchtung, die Dunkelfeldbeleuchtung und die Durchlichtbeleuchtung zu normieren, mit welchen die unterschiedlichen, prinzipbedingten Lichtintensitäten bei den drei Kalibriervorgängen berücksichtigt werden.
  • Sind die Kopplungskoeffizienten und damit die Kopplungsmatrix MK bekannt, so kann durch Berechnung der inversen Matrix die Separationsmatrix MSEP bestimmt werden.
  • Oftmals besitzen Kameras bereits ein Modul zur Multiplikation des Signalvektors s mit einer Matrix, um die Farbwiedergabe zu korrigieren. Bei der Erfindung wird in einem solchen Modul als Matrix die Separationsmatrix MSEP verwendet, wodurch die Sensorsignale (sr, sg, sb) in die Antworten bzw. Lichtintensitäten (ar, ag, ab) der einzelnen spektral unterschiedlichen Lichtquellen getrennt werden.
  • Optional kann eine Korrektur der Lichtintensitäten ausgeführt werden. Man unterscheidet grundsätzlich die Korrektur der Beleuchtungsinhomogenität und die Korrektur der unterschiedlichen Empfindlichkeiten der Sensoren (PRNU).
  • Die Beleuchtungsinhomogenitäten ergeben sich aus der Geometrie der Lichtquellen und der Lichtstrahllenkmittel, mit welchen ein Lichtstrahlbündel erzeugt wird, das in der Regel nicht exakt homogen ist. Hierdurch werden die unterschiedlichen Bildpunkte der Kamera 32 mit unterschiedlichen Lichtintensitäten beleuchtet. Zur Beschreibung der Lichtintensitäten aufgrund der Beleuchtungsinhomogenitäten wird ein Dämpfungsvektor sbx mit den Koeffizienten sbrx, sbgx und sbbx eingeführt. Diese Dämpfungskoeffizienten unterscheiden sich für die unterschiedlichen Lichtspektren der unterschiedlichen Lichtquellen und sind jeweils vom Ort abhängig. Die folgende Beschreibung gilt für eine eindimensionale Zeilenkamera, bei welcher mehrere Bildpunkte in X-Richtung nebeneinander angeordnet sind. Bei einer Flächenkamera sind die Bildpunkte in X- und Y-Richtung verteilt angeordnet, sodass dann die Dämpfungskoeffizienten sowohl von der X- als auch von der Y-Richtung abhängig sind.
  • Ein mittels der ortsabhängigen Dämpfungsfaktoren sbrx, sbgx, sbbx hinsichtlich der Beleuchtungsinhomogenitäten korrigierter Antwortsvektor abx ergibt sich folgendermaßen:
    Figure DE102016100361A1_0003
  • Da bei dem Verfahren zum Abtasten der Objekte aus dem Signalvektor s der Antwortsvektor a berechnet wird, müssen die Komponenten des mit der Formel (4) berechneten Antwortsvektors a mit den Kehrwerten der Dämpfungsfaktoren multipliziert werden, um die entsprechend korrigierten Antworten aus den Signalen zu erhalten.
  • Dies wird mit folgender Formel beschrieben:
    Figure DE102016100361A1_0004
  • Die einzelnen Sensoren einer Kamera können unterschiedliche Empfindlichkeiten aufweisen. Diese Empfindlichkeiten können sich bis zu 10 % unterscheiden. Dies wird als PRNU (photo response non uniformity) bezeichnet. Die Sensorsignale werden dementsprechend verfälscht, was durch entsprechende Dämpfungsfaktoren serx, segx und sebx ausgedrückt werden kann. Die tatsächlich gemessenen Sensorsignale sex können mit Berücksichtigung der ortsabhängigen und für die jeweiligen Lichtspektren spezifischen Dämpfungskoeffizienten aus den eigentlichen Soll-Sensorsignalen s wie folgt berechnet werden:
    Figure DE102016100361A1_0005
  • Die Berechnung der Antworten a aus den tatsächlich gemessenen Signalen sex erfolgt unter Berücksichtigung beider Korrekturen gemäß folgender Formel:
    Figure DE102016100361A1_0006
  • Da sich die Korrektur der Beleuchtungsinhomogenitäten auf das zu den Sensoren gelenkte Licht auswirkt und die Korrektur der unterschiedlichen Empfindlichkeiten (PRNU) auf die erfassten Sensorsignale auswirkt, sind bei der Berechnung der Antworten zunächst die Sensorsignale mit den Kehrwerten der Dämpfungswerte für die unterschiedlichen Empfindlichkeiten zu korrigieren, danach mit der Separationsmatrix in die entsprechenden Antworten zu separieren und dann mittels der Kehrwerte der Dämpfungswerte für die Beleuchtungsinhomogenitäten zu korrigieren. Diese Operationen sind nicht kommutativ, das heißt, dass sie nicht vertauscht werden dürfen. Im Rahmen der Erfindung kann es auch zweckmäßig sein, keine oder lediglich nur eine Korrektur, entweder die Korrektur der Beleuchtungsinhomogenitäten oder die Korrektur der unterschiedlichen Empfindlichkeiten, durchzuführen. Beide Korrekturen sind ortsabhängig. Die Separationsmatrix MSEP ist grundsätzlich nicht ortsabhängig.
  • Die Ermittlung der Antworten (ar, ag, ab) kann als Hardware mittels mehrerer Multiplikationsstufen realisiert werden, wobei die Dämpfungsfaktoren ortsabhängig, d. h. für jeden Sensor separat in einer Look-up-Tabelle hinterlegt sind und zum Korrigieren der Sensorsignale des jeweiligen Sensors ausgelesen werden. Die Bestimmung des Antwortvektors kann auch mittels eines Softwaremoduls realisiert werden, das die entsprechenden Matrizen- und Vektormultiplikationen durchführt.
  • Die Separationsmatrix MSEP weist die Matrixkoeffizienten m00, m01, ...m22 auf. Mit der Darstellung der Matrix durch ihre Koeffizienten kann die oben angegebene Formel (8) folgendermaßen dargestellt und ausmultipliziert werden:
    Figure DE102016100361A1_0007
  • Bei Anwendung dieser Formel wird die Anzahl der auszuführenden Rechenoperationen minimiert. Für jeden Sensor ist jeweils eine bereits korrigierte Separationsmatrix in einer Look-up-Tabelle hinterlegt. Diese Separationsmatrizen sind aufgrund der ortsabhängigen Dämpfungsfaktoren selbst ortsabhängig, weshalb für einen jeden Sensor eine separate Separationsmatrix in der Look-up-Tabelle gespeichert ist.
  • Wie man der Formel (9) entnehmen kann, stehen die Dämpfungswerte im Nenner der Koeffizienten, weshalb sie als Verstärkungsfaktoren wirken und die tatsächlich gemessenen Signale entsprechend verstärken.
  • Mit den oben erläuterten Verfahren können somit Lichtquellen mit unterschiedlichen Lichtspektren verwendet werden und die Sensorsignale derart separiert werden, dass an einem jeden Sensor ein separates Signal für die Intensität bestimmt wird, das durch eine der Lichtquellen verursacht wird. Hiermit können auch Sensoren verwendet werden, bei welchen eine spektrale Überkopplung auftritt. Es sind keine zusätzlichen Farbfilter notwendig. Mit einer zur Ausführung des erfindungsgemäßen Verfahrens geeigneten Vorrichtung können auch andere Abtastverfahren ausgeführt werden, insbesondere wenn weitere Lichtquellen verwendet werden, die weißes Licht abgeben, wobei dann anstelle einer Separationsmatrix eine Farbkorrekturmatrix verwendet wird, um annähernd farbechte Abbildungen zu erzeugen.
  • Das oben erläuterte Ausführungsbeispiel verwendet eine spezielle Beleuchtungsvorrichtung zum flächenförmigen Ausleuchten eines streifenförmigen Beleuchtungsbereichs. Die Erfindung kann auch mit anderen Beleuchtungsvorrichtungen ausgeführt werden. 5 zeigt schematisch in einer Seitenansicht ein weiteres Ausführungsbeispiel, das vier Beleuchtungseinrichtungen 3942 aufweist, um jeweils einen gemeinsamen zeilenförmigen Bereich einer Objektebene 43 auszuleuchten.
  • Die Beleuchtungseinrichtungen 3942 sind zeilenförmig ausgebildet und weisen jeweils zeilenförmig angeordnete Lichtquellen, wie z. B. Leuchtdioden, und entsprechende Lichtlenkmittel auf, welche verspiegelte Reflektoren und/oder Linsen bzw. Objektive sein können.
  • Diese Abtastvorrichtung 1 weist weiterhin eine Kamera 32 auf, welche im vorliegenden Ausführungsbeispiel eine Zeilenkamera ist, mit welcher die Objektebene 43 linienförmig abgetastet wird. Die Zeilenkamera 32 ist mit ihrer optischen Ebene 44 senkrecht zur Objektebene 43 ausgerichtet. Grundsätzlich ist es auch möglich, die Zeilenkamera 32 derart anzuordnen, dass die optische Ebene 44 einen vom rechten Winkel abweichenden Winkel mit der Objektebene 43 einschließt. Im Bereich der optischen Ebene 44 zwischen der Objektebene 43 und der Zeilenkamera 32 ist ein halbdurchlässiger Spiegel 45 angeordnet. Eine erste der Beleuchtungseinrichtungen 39 ist derart angeordnet, dass das von ihr ausgesandte Licht auf den halbdurchlässigen Spiegel 45 gerichtet ist und von dem Spiegel zum zeilenförmigen Beleuchtungsbereich 46 in der Objektebene 43 gelenkt wird. Das entsprechende Lichtstrahlbündel vom halbdurchlässigen Spiegel 45 zum zeilenförmigen Beleuchtungsbereich 46 verläuft etwa parallel zur Objektebene 43.
  • Die Beleuchtungseinrichtungen 40, 41 sind derart angeordnet, dass sie mit dem ausgesandten Lichtstrahlbündel den zeilenförmigen Beleuchtungsbereich 46 ausleuchten, wobei die Lichtstrahlbündel unter einem Winkel der Objektebene 43 zugeführt werden, der mit der optischen Ebene 44 der Kamera 32 keinen Einfalls- und Ausfallswinkel bildet, sodass das von den Beleuchtungseinrichtungen 40, 41 emittierte Licht an der Objektebene 43 nicht direkt in die Kamera 32 gelenkt wird. Die Beleuchtungseinrichtungen 40, 41 erzeugen somit ein Dunkelfeldlicht, wobei die Beleuchtungseinrichtung 40 das Licht unter einem flacheren Winkel als die Beleuchtungseinrichtung 41 auf die Objektebene 43 abstrahlt.
  • Die Beleuchtungseinrichtung 42 ist unterhalb der Objektebene 43 angeordnet und derart ausgerichtet, dass das von der Beleuchtungseinrichtung 42 ausgestrahlte Licht den zeilenförmigen Beleuchtungsbereich 46 ausleuchtet.
  • Die Beleuchtungseinrichtungen 3942 sind derart ausgebildet, dass zumindest zwei Beleuchtungseinrichtungen davon Licht mit unterschiedlichen Lichtspektren abgeben. Vorzugsweise erzeugen alle Beleuchtungseinrichtungen 3942 jeweils Licht mit einem unterschiedlichen Lichtspektrum. Durch Verwendung der unterschiedlichen Lichtspektren kann der Beleuchtungsbereich 46 gleichzeitig mit den verschiedenen Beleuchtungseinrichtungen 3942 ausgeleuchtet werden und die Intensitäten der Lichtspektren der unterschiedlichen Beleuchtungseinrichtungen 3942 separiert werden, wie es oben anhand des ersten Ausführungsbeispiels ausführlich erläutert ist.
  • Im Rahmen der Erfindung genügen zwei unterschiedliche Beleuchtungseinrichtungen bzw. Lichtquellen 3942, um gleichzeitig zwei unterschiedliche optische Untersuchungen an einem abzutastenden Objekt auszuführen. Das abzutastende Objekt wird hierzu in der Objektebene 43 im Beleuchtungsbereich 46 angeordnet.
  • Bezugszeichenliste
  • 1
    Vorrichtung
    2
    Förderband
    3
    Objekt
    4
    Förderrichtung
    5
    Transportriemen
    6
    Rolle
    7
    Trum
    8
    Trum
    9
    obere Abtasteinheit
    10
    untere Abtasteinheit
    11
    Reflektoranordnung
    12
    Reflektoranordnung
    13
    rinnenförmiger Reflektor
    14
    ebenflächiger Reflektor
    15
    verspiegelte Reflektorfläche
    16
    Lichtquellenhalterung
    17
    Leuchtdiode
    18
    verspiegelte Reflektorfläche
    19
    Symmetrieebene
    20
    Gehäuse
    21
    Längsseitenwandung
    22
    Stirnwandung
    23
    Bodenwandung
    24
    Durchgangsöffnung
    25
    Halteschiene
    26
    Leuchtdiode
    27
    Beleuchtungsbereich
    28
    Transportebene
    29
    Lichtquellenanordnung
    30
    Leuchtdiode
    31
    Halterung
    32
    Kamera
    33
    blaues Lichtspektrum
    34
    grünes Lichtspektrum
    35
    rotes Lichtspektrum
    36
    blaue spektrale Empfindlichkeit
    37
    grüne spektrale Empfindlichkeit
    38
    rote spektrale Empfindlichkeit
    39
    Beleuchtungseinrichtung
    40
    Beleuchtungseinrichtung
    41
    Beleuchtungseinrichtung
    42
    Beleuchtungseinrichtung
    43
    Objektebene
    44
    optische Ebene
    45
    halbdurchlässiger Spiegel
    46
    Beleuchtungsbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102015101252 [0031]

Claims (13)

  1. Verfahren zum Abtasten eines Objektes (3) mit einem bildgebenden Verfahren, wobei das Verfahren die Schritte umfasst: – Gleichzeitiges Beleuchten eines Objektes (3) mit zumindest zwei unterschiedlichen Lichtquellen (17, 26, 30), wobei die Lichtquellen (17, 26, 30) unterschiedliche Lichtspektren (33, 34, 35) aufweisen, – Abtasten des Objektes (3) mittels zumindest zweier Sensoren, die eine unterschiedliche spektrale Empfindlichkeit (36, 37, 38) aufweisen, und – Separieren der Intensitäten der Lichtspektren (33, 34, 35) der zumindest zwei Lichtquellen (17, 26, 30) in den mit den Sensoren erfassten Sensorsignalen mittels spezifischer Empfindlichkeiten der jeweiligen Sensoren für die unterschiedlichen Lichtspektren.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Separieren durch Multiplizieren der gleichzeitig erfassten Sensorsignale der zumindest zwei Sensoren mittels einer Separationsmatrix, wobei die Separationsmatrix die inverse Matrix einer die spezifischen Empfindlichkeiten beschreibenden Matrix ist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Lichtquellen (17, 26, 30) Lichtstrahllenkmittel (13, 14) mit unterschiedlichen Geometrien aufweisen.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Objekt mit einer Farb-Kamera (32) abgetastet wird, welche Sensoren mit zumindest drei spektral unterschiedlichen Empfindlichkeiten (36, 37, 38) aufweist, die insbesondere jeweils für die Farben Rot, Grün und Blau empfindlich sind.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die spektralen Empfindlichkeiten (36, 37, 38) der jeweiligen Sensoren sich spektral teilweise überlappen.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die spektralen Empfindlichkeiten (36, 37, 38) der jeweiligen Sensoren jeweils eines der Lichtspektren (33, 34, 35) der Lichtquellen (17, 26, 30) umfassen.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass jeweils mehrere Sensoren der gleichen spektrale Empfindlichkeiten verwendet werden, wobei die mit den einzelnen Sensoren ermittelten Signale orts- oder sensorspezifisch korrigiert werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die mit den einzelnen Sensoren ermittelten Signale bezüglich der unterschiedlichen Empfindlichkeiten der einzelnen Sensoren (PRNU) korrigiert werden.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die separierten Intensitäten der Lichtspektren bezüglich der Beleuchtungsinhomogenitäten korrigiert werden.
  10. Vorrichtung zum Abtasten eines Objektes (3) mit einem bildgebenden Verfahren umfassend: – zumindest zwei unterschiedlichen Lichtquellen (17, 26, 30) zum gleichzeitigen Beleuchten eines Objektes (3) mit jeweils unterschiedlichen Lichtspektren (33, 34, 35), – zumindest zwei Sensoren zum Abtasten eines Objektes (3), die eine unterschiedliche spektrale Empfindlichkeit (36, 37, 38) aufweisen, und – Mittel zum Separieren der Lichtspektren (33, 34, 35) der zumindest zwei Lichtquellen (17, 26, 30) in den Sensorsignalen mittels spezifischer Empfindlichkeiten der jeweiligen Sensoren für die unterschiedlichen Lichtspektren (33, 34, 35).
  11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Vorrichtung (1) zum Ausführen eines Verfahrens nach einem der Ansprüche 1 bis 7 ausgebildet ist.
  12. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die Lichtquellen Leuchtdioden (17, 26, 30) umfassen.
  13. Vorrichtung nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die zumindest zwei Lichtquellen als zumindest zwei der drei folgenden Lichtquellen ausgebildet sind: Dunkelfeldlichtquelle, Hellfeldlichtquelle, Durchleuchtungslichtquelle
DE102016100361.1A 2016-01-11 2016-01-11 Verfahren und Vorrichtung zum Abtasten eines Objekts mit einem bildgebenden Verfahren Pending DE102016100361A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016100361.1A DE102016100361A1 (de) 2016-01-11 2016-01-11 Verfahren und Vorrichtung zum Abtasten eines Objekts mit einem bildgebenden Verfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016100361.1A DE102016100361A1 (de) 2016-01-11 2016-01-11 Verfahren und Vorrichtung zum Abtasten eines Objekts mit einem bildgebenden Verfahren

Publications (1)

Publication Number Publication Date
DE102016100361A1 true DE102016100361A1 (de) 2017-07-13

Family

ID=59118791

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016100361.1A Pending DE102016100361A1 (de) 2016-01-11 2016-01-11 Verfahren und Vorrichtung zum Abtasten eines Objekts mit einem bildgebenden Verfahren

Country Status (1)

Country Link
DE (1) DE102016100361A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015101252A1 (de) 2015-01-28 2016-07-28 Chromasens Gmbh Beleuchtungsvorrichtung, optisches Analysesystem sowie Verfahren zum Abtasten einer Oberfläche

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015101252A1 (de) 2015-01-28 2016-07-28 Chromasens Gmbh Beleuchtungsvorrichtung, optisches Analysesystem sowie Verfahren zum Abtasten einer Oberfläche

Similar Documents

Publication Publication Date Title
DE69515445T2 (de) Verfahren und Vorrichtung zum Kennzeichnen und Unterscheiden von Banknoten und legalen Zahlungsmitteln
EP0824736B1 (de) Vorrichtung und verfahren zur prüfung von blattgut, wie z.b. banknoten oder wertpapiere
DE69817580T2 (de) Vorrichtung zur optischen prüfung von verpackungsfolien
EP2270451A1 (de) Farbmessgerät
EP2276585B1 (de) Verfahren zum optischen detektieren von bewegten objekten
DE19545178B4 (de) Spektrometervorrichtung
WO1993025894A1 (de) Verfahren zur kalibrierung eines bildverarbeitungssystems
DE102015119444A1 (de) Vorrichtung und Verfahren zur Überwachung einer laufenden Warenbahn
DE102014100594A1 (de) Vorrichtung zur Inspektion eines mit einer beschichteten Oberfläche versehenen Materials und entsprechendes Verfahren
DE102017012176A1 (de) Vorrichtung, Systeme und Verfahren zum Beleuchten und Abbilden von Objekten
DE3242447C2 (de) Photoelektrische Kontrollvorrichtung zur Qualitätskontrolle einer bewegten Materialbahn
DE102005031647A1 (de) Beleuchtungsvorrichtung zur Dunkelfeldbeleuchtung für eine optische Testvorrichtung und Verfahren zum optischen Abtasten eines Objektes
EP2916258A1 (de) 2D-Barcode-Scanner
DE19953738C1 (de) Inspektionsvorrichtung zur Seitenwandkontrolle von Gefäßen
AT508060B1 (de) Verfahren, beleuchtungseinrichtung und system zum optischen detektieren von bewegten objekten
DE102007018204B4 (de) Vorrichtung zur Erfassung von Fehlerstellen in Tierhäuten
DE102016100361A1 (de) Verfahren und Vorrichtung zum Abtasten eines Objekts mit einem bildgebenden Verfahren
EP4080402B1 (de) Helligkeits- und farbkorrektur von bilddaten einer zeilenkamera
EP3007430B1 (de) Kamerasystem und Verfahren zur Inspektion und/oder Vermessung von Objekten
DE102013003558B4 (de) System zur Bestimmung des Kontrastes von Farbpigmenten eingefärbter Gläser
EP1300353A2 (de) Vorrichtung zum Erfassen der Lage einer Kante eines Verarbeitungsgutes
DE112018008010T5 (de) Mehrfarboberflächeninspektionssystem, verfahren zum inspizieren einer oberfläche und verfahren zum kalibrieren des mehrfarboberflächeninspektionssystems
AT508503B1 (de) Verfahren zur erkennung von bläue bei holz
DE2411388A1 (de) Verfahren und vorrichtung zum fotometrischen sortieren von stueckigen mineralien
WO2009018849A1 (de) Anordnung zur bildaufnahme von elementen

Legal Events

Date Code Title Description
R012 Request for examination validly filed