DE102008026865A1 - Systemarchitektur zur Erfassung einer absoluten Position unter Verwendung eines Zielmusters - Google Patents

Systemarchitektur zur Erfassung einer absoluten Position unter Verwendung eines Zielmusters Download PDF

Info

Publication number
DE102008026865A1
DE102008026865A1 DE102008026865A DE102008026865A DE102008026865A1 DE 102008026865 A1 DE102008026865 A1 DE 102008026865A1 DE 102008026865 A DE102008026865 A DE 102008026865A DE 102008026865 A DE102008026865 A DE 102008026865A DE 102008026865 A1 DE102008026865 A1 DE 102008026865A1
Authority
DE
Germany
Prior art keywords
pld
image
lsoc
fpga
target pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008026865A
Other languages
English (en)
Inventor
Janet Santa Clara Yun
David C. Palo Alto Chu
Matthew D. Livermore Tenuta
Raymond San Jose Yeung
Nhan T. San Jose Nguyen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keysight Technologies Inc
Original Assignee
Agilent Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agilent Technologies Inc filed Critical Agilent Technologies Inc
Publication of DE102008026865A1 publication Critical patent/DE102008026865A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optical Transform (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein Standortsystem und ein Standortsystem auf einem Chip (LSoC) und Verfahren sind beschrieben.

Description

  • Bezugnahme auf verwandte Anmeldungen
  • Die vorliegende Anmeldung ist eine Teilfortsetzungsanmeldung (CIP; continuation-in-part) unter 37 C.F.R. § 1.53(b) und beansprucht den Vorteil der Priorität und 35 U.S.C § 120 der U.S.-Patentanmeldung Seriennummer 11/753,508 (Anwaltsaktenzeichen 10041390-06) mit dem Titel „SYSTEM FOR SENSING AN ABSOLUTE POSITION IN TWO DIMENSIONS USING A TARGET PATTERN", eingereicht am 24. Mai 2007, die eine Fortsetzung des U.S.-Patents 7,230,727 ist. Sowohl die Anmeldung als auch das Patent, auf das Bezug genommen wird, sind der vorliegenden Anmelderin zugewiesen, Agilent Technologies, Inc. Die Offenbarungen der Patentanmeldung und des Patents, auf die Bezug genommen wird, sind hierin durch Bezugnahme spezifisch aufgenommen.
  • Beschreibung
  • Bei zahlreichen Anwendungen besteht ein Bedarf zum genauen Messen des Orts oder der Position eines Objekts. Zum Beispiel erfordern viele Herstellungsprozesse die präzise Positionierung einer sich bewegenden Plattform (Stufe) oder eines Objekts. Es wurden mehrere Techniken zum Bestimmen der Position eines beweglichen Objekts entwickelt. Einiger dieser Techniken werden nachfolgenden erörtert.
  • Ein Verfahren zum Bestimmen der Position der beweglichen Stufe umfasst ein optisches Codieren. Bei bestimmten, bekannten optischen Codierungsarchitekturen fällt Licht aus einer Lichtquelle auf ein Zielmuster auf dem Objekt ein. Ein optischer Sensor erfasst ein Bild des Zielmusters und aus diesem Bild wird die Position des Objekts bestimmt.
  • Leider sind bekannte optische Codierer vergleichsweise groß, was ihre Implementierung bei bestimmten Gegebenheiten einschränkt. Ferner kann eine Wärmeausdehnung bei diesen vergleichsweise großen optischen Codierern einen Messfehler verursachen, der größer ist als die Dimension (Abmessung), die gemessen wird. Zusätzlich dazu ist es in vielen Messumgebungen hilfreich, eine Verschmutzung des optischen Codierers aufgrund von Umgebungselementen (z. B. Staub und Schmutz) durch Einschließen des Codierers in ein geeignetes Gehäuse zu verhindern. Wie offensichtlich ist, erhöht der Zusatz des Gehäuses ferner die Größe des Codierers.
  • Zusätzlich zu Nachteilen, die auf die Größe bezogen sind, sind viele bekannte zweidimensionale optische Codierer durch vergleichsweise langsame Rechengeschwindigkeiten eingeschränkt. Zum Beispiel muss bei bestimmten optischen Codierern der Standort des Objekts in jeder Dimension sequentiell bestimmt werden. Wie offensichtlich ist, reduziert dies die Verarbeitungsgeschwindigkeit von Messdaten. Bei vielen Gegebenheiten sind vergleichsweise langsame Verarbeitungsgeschwindigkeiten eine Behinderung.
  • Es besteht daher ein Bedarf nach einer Systemarchitektur für einen optischen Codierer, die zumindest den Nachteil bekannter optischer Codierer überwindet, der oben erörtert wurde.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Standortsystem, ein Standortsystem auf einem Chip und ein Verfahren zum Bestimmen eines Standorts mit verbesserten Charakteristika zu schaffen.
  • Diese Aufgabe wird durch ein Standortsystem gemäß Anspruch 1, ein Standortsystem auf einem Chip gemäß Anspruch 13 und ein Verfahren zum Bestimmen eines Standorts gemäß Anspruch 23 gelöst.
  • Bei einem darstellenden Ausführungsbeispiel umfasst ein Standortsystem (Ortssystem) einen Bildsensor, der angepasst ist, um ein Bild eines Teilsatzes eines Zielmusters zu erfassen. Das Standortsystem umfasst ferner ein programmierbares logisches Bauelement (PLD; programmable logic device), das wirksam ist, um einen ersten Bildvektor, der Summierungen von Zeilen aus Pixelwerten von dem Bild darstellt, und einen zweiten Bildvektor, der Summierungen aus Spalten aus Pixelwerten von dem Bild darstellt, zu erzeugen. Das PLD ist konfiguriert, um aus den Bildvektoren eine absolute Position des Teilsatzes in zumindest zwei Dimensionen im Hinblick auf einen Ursprung des Zielmusters zu bestimmen.
  • Bei einem anderen, repräsentativen Ausführungsbeispiel umfasst ein Standortsystem auf einem Chip (LSoC; location system an a chip) einen Bildsensor, der angepasst ist, um ein Bild eines Teilsatzes eines Zielmusters zu erfassen. das LSOC umfasst ferner ein programmierbares, logisches Bauelement (PLD), das wirksam ist, um einen ersten Bildvektor, der Summierungen von Zeilen aus Pixelwerten von dem Bild darstellt, und einen zweiten Bildvektor, der Summierungen aus Spalten aus Pixelwerten von dem Bild darstellt, zu erzeugen. Das PLD ist konfiguriert, um eine absolute Position des Teilsatzes im Hinblick auf einen Ursprung des Zielmusters in zumindest zwei Dimensionen zu bestimmen.
  • Bei einem wiederum anderen, repräsentativen Ausführungsbeispiel umfasst ein Verfahren zum Bestimmen eines Standorts das Beleuchten eines Ziels, das ein zweidimensionales Zielmuster aufweist, und das Erfassen eines Bildes eines Teilsatzes des Zielmusters. Das Verfahren umfasst ferner, bei einem feldprogrammierbaren Gatearray (FPGA; field programmable gate array): Erzeugen eines ersten Bildvektors, der Summierungen von Zeilen aus Pixelwerten von dem Bild darstellt, und eines zweiten Bildvektors, der Summierungen von Spalten aus Pixelwerten von dem Bild darstellt; und das Bestimmen einer absoluten Position des Teilsatzes im Hinblick auf einen Ursprung des Zielmusters in zumindest zwei Dimensionen.
  • Die vorliegenden Lehren sind am besten aus der nachfolgenden detaillierten Beschreibung verständlich, wenn sie zusammen mit den beiliegenden Zeichnungsfiguren gelesen wird. Die Merkmale sind nicht notwendigerweise maßstabsgetreu gezeichnet. Wo immer möglich, beziehen sich gleiche Bezugszeichen auf gleiche Merkmale.
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:
  • 1 ein vereinfachtes schematisches Diagramm eines Standortsystems gemäß einem darstellenden Ausführungsbeispiel;
  • 2 eine Entwurfsansicht eines Objekts, das Standortsysteme passiert, gemäß einem darstellenden Ausführungsbeispiel;
  • 3A ein vereinfachtes Blockdiagramm eines LSoC gemäß einem darstellenden Ausführungsbeispiel;
  • 3B eine perspektivische Ansicht eines gepackten LSoC gemäß einem darstellenden Ausführungsbeispiel;
  • 4 eine perspektivische Ansicht eines Standortsystems gemäß einem darstellenden Ausführungsbeispiel; und
  • 5 ein Flussdiagramm eines Verfahrens zum Bestimmen eines Standorts gemäß einem darstellenden Ausführungsbeispiel.
  • In der nachfolgenden, detaillierten Beschreibung werden zu Zwecken der Erklärung und nicht der Einschränkung darstel lende Ausführungsbeispiele, die spezifische Details offenbaren, ausgeführt, um ein tief greifendes Verständnis der vorliegenden Lehren zu geben. Beschreibungen von bekannten Vorrichtungen, Hardware, Software, Firmware, Verfahren und Systemen können weg gelassen werden, um ein Verunklaren der Beschreibung der beispielhaften Ausführungsbeispiele zu vermeiden. Trotzdem kann solche Hardware, Software, Firmware, Vorrichtungen, Verfahren und Systeme, die in dem Bereich eines Fachmanns auf dem Gebiet liegen, gemäß darstellenden Ausführungsbeispielen verwendet werden.
  • Die nachfolgende, detaillierte Beschreibung stellt Verfahren dar, die durch Abläufe und symbolische Darstellungen von Operationen von Datenbits innerhalb eines computerlesbaren Mediums, zugeordneter Prozessoren/Controller, und programmierbarer logischer Bauelemente (PLDs) verkörpert sein können. Ein Verfahren wird hier und im Allgemeinen als eine Reihe von Schritten oder Handlungen betrachtet, die zu einem gewünschten Ergebnis führen, und umfasst als solches Ausdrücke wie z. B. „Algorithmus", „Routine", „Programm", „Objekte", „Funktionen", „Unterroutinen" und „Verfahren".
  • Im Hinblick auf die Software, die bei den hierin beschriebenen Ausführungsbeispielen nützlich ist, werden Fachleute auf dem Gebiet erkennen, dass eine Vielzahl von Plattformen und Sprachen zum Erzeugen einer Software zum Ausführen der beschriebenen rechentechnischen Prozesse existiert. Bestimmte darstellende Ausführungsbeispiele können unter Verwendung einer beliebigen einer Anzahl von bekannten Maschinensprachen implementiert sein, die bei den verschiedenen Komponenten des Standortsystems und LSoC nützlich sind. Fachleute auf dem Gebiet werden jedoch ferner erkennen, dass die Auswahl der genauen Plattform und Sprache häufig durch die Spezifitäten des tatsächlichen aufgebauten Systems vorgegeben ist, so dass, was für eine Systemart funktioniert, für eine andere Systemart möglicherweise nicht effizient ist. Zusätzlich dazu kann bei bestimmten Ausführungsbeispielen eine handelsübliche Software, die zur Verwendung mit Modulen (austauschbar hierin als weicher Kern (softcore) oder nur „Kern" (core) bezeichnet) des PLD und anderer Komponenten des Standortsystems angepasst ist, implementiert sein, um bestimmte vorteilhafte Aspekte zu realisieren. Eine handelsübliche Software ist zu darstellenden Zwecken angegeben.
  • 1 ist ein vereinfachtes, schematisches Diagramm eines Standortsystems 100 gemäß einem darstellenden Ausführungsbeispiel. Das System umfasst ein PLD 101, einen digitalen Bildsensor 102 und eine Beleuchtungsquelle 103. Das PLD 101 umfasst darstellend einen Controller (Steuerung) 104 und einen oder mehrere Kerne 105 (oder Module), die in Software instanziiert sind, wie hierin nachfolgend ausführlicher beschrieben wird. Das System 100 liefert einen Ort (Standort) eines Zielmusters auf einem Objekt 106. Es wird betont, dass das Objekt 106 und das Zielmuster darauf normalerweise nicht als Teil des Systems 100 des darstellenden Ausführungsbeispiels betrachtet werden.
  • In Betrieb liefert die Beleuchtungsquelle 103 Licht zu dem Zielmuster des Objekts 106 auf intermittierende Weise. Zum Beispiel kann die Quelle 103 eine oder mehrere lichtemittierende Dioden (LEDs) oder Laser aufweisen, die auf intermittierende Weise beleuchten (z. B. Strobe). Der digitale Bildsensor 102 erfasst Bilder 107 des Zielmusters an jedem Intervall der Beleuchtung des Zielmusters. Bilddaten 108 werden von dem Sensor 102 zu jeweiligen Kernen 105 des PLD 101 geliefert. Die Kerne 105 weisen eine Software auf, die angepasst ist, um das Verfahren der Stammanmeldung und des U.S.-Patents 7,230,727 , auf das Bezug genommen wurde, auszuführen, um absolute Standort-(Positions-)Daten 109 des Objekts 106 zu bestimmen. Die Standortdaten 109 werden dann zu einem Benutzer (nicht gezeigt) zur weiteren Verwendung geliefert.
  • Bei einem repräsentativen Ausführungsbeispiel und durch ein oder mehrere Verfahren, die in der Stammanmeldung und dem Patent, auf das Bezug genommen wird, beschrieben sind, wird nach dem Empfangen der Bilddaten 108 das PLD 101 angepasst, um einen ersten Bildvektor zu erzeugen, der Summierungen von Zeilen aus Pixelwerten von dem Bild 107 darstellt; und um einen zweiten Bildvektor zu erzeugen, der Summierungen von Spalten aus Pixelwerten von dem Bild 107 darstellt. Nachdem die Bildvektoren berechnet sind, ist das PLD 101 konfiguriert, um aus den Bildvektoren eine absolute Position des Teilsatzes in zwei Dimensionen im Hinblick auf einen Ursprung des Zielmusters zu bestimmen. Es wird betont, dass die Bestimmung einer absoluten Position in mehr als zwei Dimensionen durch die vorliegenden Lehren berücksichtigt wird.
  • Zusätzlich zu dem Bestimmen der absoluten Position und unter anderen Funktionen liefert das PLD 101 eine Steuerfunktion zur Zielmusterbeleuchtung und Bilderfassung. Zum Beispiel kann das PLD 101 ein Signal von dem Bildsensor 102 empfangen, das seinen Status zum Empfangen von Bildern anzeigt. Wenn der Sensor 102 signalisiert, dass sein Status in einem Empfangszustand ist, liefert das PLD 101 Steuersignale zu der Beleuchtungsquelle 103 zum intermittierenden Beleuchten (strobe; blinkend beleuchten) des Zielmusters, so dass ein Bild erfasst werden kann. Alternativ kann das PLD 101 Steuersignale liefern, um die Quelle 103 blinkend zu beleuchten (Strobe) und Steuersignale zu dem Bildsensor 102 zu liefern, um das Blinken des Lichts mit dem Erfassen von Bildern durch den Sensor 102 zu synchronisieren.
  • Bei darstellenden Ausführungsbeispielen ist das PLD 101 ein feldprogrammierbares Gatearray (FPGA) und die Steuerung 104 ist in Software darin instanziiert. Alternativ kann die Steuerung 104 eine separate Komponente aus dem FPGA sein. Unabhängig davon sind einige der Kerne 105 angepasst, um Standortdaten des Zielmusters zu bestimmen und um eine absolute Position des Zielmusters zu liefern. Bei einem Ausführungsbeispiel ist jeder Kern 105 angepasst, um die Position in einer jeweiligen der Messdimensionen zu bestim men. Wenn es z. B. nützlich ist, die Position des Objekts in einem dreidimensionalen, kartesischen Koordinatensystem zu bestimmen (d. h. x, y, z), wären drei Kerne 105 erforderlich, mit einem Kern für jede Messdimension. Abweichungen von der angegebenen Konfiguration des FPGA werden durch die vorliegenden Lehren berücksichtigt. Zum Beispiel können die Kerne 105 anstelle von oder zusätzlich zu dem Berechnen des Standorts des Objekts 106 angepasst sein, um die Drehung, oder die Steigung, oder die Neigung, oder das Gieren des Objekts 106 zu berechnen oder eine Kombination daraus. Allgemeiner kann das PLD 101 konfiguriert sein, um auf die Verfahren oder Algorithmen der Stammanmeldung und des Patent, auf das Bezug genommen wird, aufzubauen, um eine Vielzahl von Positionsberechnungen zu bewirken. Aufgrund der vergleichsweise zugänglichen Konfiguration des PLD kann eine große Vielzahl von Dimensionsberechnungen durch Modifikationen der Software der Kerne 105 oder zusätzlicher Kerne oder von beidem realisiert werden. Ferner, und wie vorangehend angedeutet wurde, können die Kerne des FPGA angepasst sein, um die Berechnungen der Positionsdaten in jeder Dimension gleichzeitig auszuführen. Wie offensichtlich ist, ermöglicht dies eine verbesserte Rechengeschwindigkeit des Systems 100 im Vergleich zu vielen bekannten Systemen.
  • Bei einem spezifischen Ausführungsbeispiel ist das PLD 101 ein handelsüblich erhältliches Xilinx® Spartan III FPGA und die Kerne sind in der Xilinx® ISE-Software instanziiert, um das FPGA zu synthetisieren. Wie angegeben wurde, ist die Software der Kerne 105 angepasst, um das Verfahren der Stammanmeldung und des Patents, auf das Bezug genommen wird, auszuführen. Das Programmieren der Kerne, um das Verfahren auszuführen, liegt innerhalb des Bereichs eines Durchschnittsfachmanns auf dem Gebiet und wird hier nicht detailliert beschrieben, um ein Verunklaren der Beschreibung der darstellenden Ausführungsbeispiele zu vermeiden.
  • Bei anderen repräsentativen Ausführungsbeispielen kann das PLD 101 eine anwendungsspezifische integrierte Schaltung (ASIC; application specific integrated circuit) aufweisen, die angepasst ist, um die Funktionen der Steuerung 104 und der Kerne 105 auszuführen. Alternativ kann mehr als ein PLD in dem System implementiert sein. Zum Beispiel ist bei einem Ausführungsbeispiel, das in Verbindung mit 4 ausführlicher beschrieben ist, das System in zwei Teilen vorgesehen, wobei ein Teil den digitalen Bildsensor 102, die Beleuchtungsquelle 103 und ein PLD umfasst; und der andere Teil umfasst ein anderes PLD und eine Steuerung. Die PLDs der alternativen Ausführungsbeispiele, auf die Bezug genommen wurde, können eines oder mehrere einer Vielzahl von PLDs sein, die einem Durchschnittsfachmann auf dem Gebiet bekannt sind.
  • Bei einem repräsentativen Ausführungsbeispiel ist der digitale Bildsensor 102 ein aktiver Pixelsensor (APS; active pixel sensor), der aus einer integrierten Schaltung besteht, die ein Array aus Pixelsensoren umfasst, wobei jedes einen Photodetektor enthält und mit einer aktiven Transistor-Rücksetz- und -Auslese-Schaltung verbunden ist. Vorteilhafterweise weist der Sensor 102 Charakteristika von vergleichsweise hoher Geschwindigkeit und hoher Empfindlichkeit auf. Bei einem Ausführungsbeispiel umfasst der Sensor 102 eine Fenstertechnik, die die selektive Verwendung einer bestimmten Matrix aus Pixeln erlaubt. Bei einem anderen Ausführungsbeispiel ist der Sensor 102 eine kundenspezifische integrierte Schaltung mit einer ausgewählten Anzahl von Pixeln, die zum ordnungsgemäßen Erfassen des Bildes des Zielmusters benötigt werden.
  • Wie vorangehend erwähnt wurde, kann die Steuerung 104 in das PLD 101 integriert sein oder kann eine separate Komponente des Systems 100 sein. Unabhängig von der Implementierung liefert die Steuerung 104 eine Steuerfunktion zu dem Sensor 102 durch Senden von Steuerdaten 110 zu dem Sensor 102. Diese Daten 110 können Konfigurationsdaten sein, wie z. B. Gewinn, Anzahl der Pixel, die betrachtet werden sollen und die Bitreihenfolge der Daten, die durch den Bildsensor zu dem PLD 101 geliefert werden. Zusätzlich dazu liefert die Steuerung 104 Steuerdaten zu und empfängt bestimmte Daten von Kernen 105 des FPGA. Auf darstellende Weise können während der Berechnung der Standortdaten 109 die Kerne 105 bestimmte parametrische Daten berechnen und solche Daten zu der Steuerung 104 liefern. Die Steuerung 104 kann angepasst sein, um eine diagnostische Analyse dieser Daten auszuführen und eine Gegenmaßnahme in Echtzeit zu unternehmen. Zum Beispiel können die Parameter von den Kernen 105 anzeigen, dass der Sensor 102 falsch ausgerichtet oder nicht ordnungsgemäß gedreht ist. Alternativ oder zusätzlich können die parametrischen Daten, die von den Kernen 105 empfangen werden, anzeigen, dass der Beleuchtungspegel zu niedrig oder zu hoch ist; oder dass der Sensor 102 nicht richtig fokussiert ist. Unter Verwendung dieser Daten ist die Steuerung 104 angepasst, die erforderlichen Einstellungen zu bestimmen und Steuerbefehle zu senden, um die notwendigen Einstellungen von Ausrichtung oder Beleuchtung oder Fokus nach Bedarf auszuführen. Alternativ oder zusätzlich können die Diagnosedaten zu dem Benutzer für eine entsprechende Handlung geliefert werden.
  • Zusätzlich dazu kann die Steuerung 104 angepasst sein, um eine Eingabe von einem Benutzer zu empfangen. Die Steuerung 104 liefert dann die Eingabe zu dem PLD 101 zur Ausführung. Zum Beispiel kann bei einem Ausführungsbeispiel, bei dem die Steuerung 104 in dem PLD 101 implementiert ist, der Benutzer Eingangsparameter zu der Steuerung 104 einstellen, die die Parameter zu den Kernen 105 liefert.
  • Bestimmte nützliche Parametereinstellungen werden hier in Verbindung mit darstellenden Ausführungsbeispielen beschrieben. Es wird betont, dass diese nur die Funktionalität des Systems 100 darstellen sollen und auf keine Weise den Schutzbereich der vorliegenden Lehren einschränken sollen. Bei einem darstellenden Ausführungsbeispiel umfasst die Einstellung der Eingangsparameter das Liefern eines neuen Codes zu einem Speicher (nicht gezeigt) des Systems 100. Dieser Speicher kann ein Flash-Speicher oder ein anderer geeigneter Speicher sein. Dieser neue Code kann eine neue Vektorsequenz liefern oder einen neuen Sensorstandort oder eine Ausgabeauflösung programmieren. Im Hinblick auf Letzteres gibt die Umgebung der Anwendung des Systems 100 häufig die Auflösungsanforderungen vor. Das System 100 ermöglicht, dass die Auflösung für die bestimmte Anwendung eingestellt wird. Zum Beispiel kann bei einigen Anwendungen die Auflösung im Bereich von 1,0 μm eingestellt sein, wohingegen bei anderen Anwendungen die Auflösung im Bereich von 100,0 nm eingestellt sein kann. Es wird darauf hingewiesen, dass ein Einstellen der Auflösung bis hinunter zu ungefähr 0,1 nm möglich ist.
  • Bei einem anderen repräsentativen Ausführungsbeispiel umfasst die Einstellung der Eingangsparameter das Liefern eines neuen Codes zu dem PLD 101, um das Sensorfenster einzustellen, und dadurch den Ort des Bilderwerbs durch den Sensor 102 von dem Objekt 106.
  • Bei wiederum anderen Ausführungsbeispielen umfasst die Einstellung von Eingangsparametern: Einstellung des Ursprungs des Testmusters, das bei der Berechnung der Standortvektoren und Standortdaten verwendet werden soll; Typen und Schwellenpegel von Fehlern, die berichtet werden sollen; und Anweisungen, wann in einen Diagnosemodus eingetreten werden soll, um nur einige zu nennen. Wie offensichtlich ist, ist die Eingabe von Benutzerparametern in das System 101 vergleichsweise einfach, aufgrund der Einfachheit, mit der PLDs (insbesondere FPGAs) der repräsentativen Ausführungsbeispiele konfiguriert werden können.
  • 2 ist eine Entwurfsansicht eines Objekts 201 (auch bezeichnet als Stufe), das die Standortsysteme 202 passiert, gemäß einem repräsentativen Ausführungsbeispiel. Die Standortsysteme 202 sind so, wie vorangehend in Verbindung mit 1 beschrieben wurde oder wie später in Verbindung mit 3A bis 4 hierin beschrieben wird. Das Objekt 201 umfasst ein Zielmuster 203, das auf einer oder mehreren Oberflächen des Objekts angeordnet ist. In der Praxis sind normalerweise nur ein Standortsystem 202 und ein Zielmuster 203 auf einer der Oberflächen vorgesehen. Die vorliegende Entwurfsansicht stellt nur zwei mögliche Implementierungen des Standortsystems 202 dar.
  • Das Objekt 201 bewegt sich auf darstellende Weise entlang der Richtung 204, was bei dem darstellenden Ausführungsbeispiel in der y-Richtung ist. Wie in der Stammanmeldung und in dem Patent, auf das Bezug genommen wird, ausführlich beschrieben ist, werden Bilder des Zielmusters 203 durch den Sensor 102 erfasst und Daten von dem Sensor 102 werden zu dem PLD 101 geliefert, das angepasst ist, um Bildvektoren zu berechnen. Aus den Bildvektoren bestimmt das PLD 101 eine absolute Position eines Teilsatzes des Zielmusters 203 in zumindest zwei Dimensionen im Hinblick auf einen Ursprung 205 des Zielmusters.
  • 3A ist ein vereinfachtes Blockdiagramm eines LSoC 300 gemäß einem darstellenden Ausführungsbeispiel. Die Komponenten des LSoC 300 sind im Wesentlichen identisch zu jenen des Standortsystems 100, das in Verbindung mit 1 beschrieben wurde. Die Beschreibung dieser Komponenten und ihre Funktion wird der Kürze halber nicht wiederholt.
  • Wie vorangehend beschrieben wurde, besteht ein Bedarf zum Bereitstellen eines Standortsystems einer vergleichsweise geringen physischen Größe. Das LSoC 300 kann in integrierter Form unter Verwendung einer einer Vielzahl von Techniken bereitgestellt sein. Zum Beispiel können die individuellen Komponenten als individuell gepackte bzw. gehäuste Bauelemente bereitgestellt sein, die häufig Halbleiterbauelemente sind. Diese individuell gepackten Bauelemente sind vergleichsweise klein und können auf einem geeigneten Substrat vorgesehen sein. Ein LSoC, das eine vollständig integrierte Schaltung aufweist, die die angegebenen Komponenten umfasst, ist ebenfalls denkbar. Zu diesem Zweck kann das LSoC 300 ein vollständiges System auf einem Chip sein, wobei alle Komponenten darin durch bekannte Verfahren integriert sind. Wie offensichtlich ist, kann das LSoC 300 im Vergleich zu vielen bekannten Systemen in einer wesentlich reduzierten Größe realisiert sein. Vorteilhafterweise ermöglicht dies die Integration eines Standortsystems in vielen Umgebungen.
  • 3B ist eine perspektivische Ansicht eines gepackten LSoC (Paket bzw. Gehäuse) 301, das über dem Objekt 201 gemäß einem darstellenden Ausführungsbeispiel angeordnet ist. Das Paket 301 umfasst ein LsoC, sowie es in Verbindung mit 3A beschrieben ist. Das Paket 301 kann aus einem oder mehreren einer Vielzahl von Materialien hergestellt sein, die geeignet für die bestimmte Mess-Anwendung oder -Umgebung sind. Da das gepackte LSoC 301 für eine Verwendung in einer großen Vielzahl von Messanwendungen gedacht ist, ist der Bereich der Materialien ebenfalls stark variierend. Zu rein darstellenden Zwecken kann das Paket aus einem bekannten Kunststoffmaterial hergestellt sein.
  • Das Paket 301 ist mit einem Kabel 302 verbunden, das Verbindungen zu und von dem LSoC liefert, was Signal- und Leistungsverbindungen umfasst. Bei einem darstellenden Ausführungsbeispiel ist das gepackte LSoC 301 im Wesentlichen abgedichtet und daher nicht besonders anfällig für eine Verschmutzung aus Umgebungselementen. Vorteilhafterweise ermöglicht dies die Implementierung des LSoC in vielen Umgebungen (z. B. Herstellung), wo Umgebungsverschmutzungen vorherrschen und die Funktionalität von Standortsystemen beeinträchtigen können.
  • Zusätzlich dazu, dass sie ein vergleichsweise kleines und gut geschütztes Standortsystem bereitstellen, sind das LSoC 300 und das gepackte LSoC 301 auch weniger anfällig für Fehler aufgrund einer Wärmeausdehnung als größere Systeme.
  • Wie oben angegeben wurde, können die vergleichsweise großen, bekannten Standortsysteme einen Messfehler verursachen, der größer ist als die Messdimensionen. Im Gegensatz dazu begünstigt die vergleichsweise geringe Größe der Systeme der repräsentativen Ausführungsbeispiele einen vergleichsweise geringen Messfehler aus der Wärmeausdehnung.
  • Die vergleichsweise geringe Größe des gepackten LSoC 301 unterstützt dessen Anpassbarkeit an eine vergleichsweise große Vielzahl von Messanwendungen. Zum Beispiel kann bei bestimmten Ausführungsbeispielen das LSoC-Paket 301 innerhalb einer vergleichsweise kleinen Stufe vorgesehen sein oder im Wesentlichen von derselben umgeben sein, was ermöglicht, dass die Messdaten gespeichert werden. Unter Verwendung bekannter Standortsysteme wäre eine solche Messansammlung nicht praktizierbar oder möglich, da bekannte Codierer zu groß sind, um eine Bewegung der Stufe zu ermöglichen. Vorteilhafterweise ermöglicht die vergleichsweise geringe physische Größe des Pakets 301, dass Standortdaten aus vergleichsweise kleinen Stufen angesammelt werden.
  • Ein anderer nützlicher Aspekt des LSoC-Pakets 301 ist dessen einfache Verwendung in existierenden Systemen. Genauer gesagt ermöglicht die vergleichsweise geringe Größe des Pakets 301, dass dasselbe in existierende Systeme nachgerüstet wird und einen klobigen Codierer ersetzt.
  • 4 ist eine perspektivische Ansicht eines Standortsystems 400 gemäß einem darstellenden Ausführungsbeispiel. Das System 400 umfasst viele der Komponenten und Merkmale von vorangehend beschriebenen Ausführungsbeispielen. Viele der Details dieser Komponenten und Merkmale werden nicht wiederholt, um ein Verunklaren der Beschreibung der vorliegend beschriebenen Ausführungsbeispiele zu vermeiden.
  • Das System 400 umfasst einen ersten Teil 401 und einen zweiten Teil 402 und eine Verbindung (z. B. ein Kabel oder einen Bus) 403 zwischen dem ersten und dem zweiten Teil 401, 402. Bei einem Ausführungsbeispiel umfasst der erste Teil 401 den digitalen Bildsensor 102 und die Beleuchtungsquelle 103; und der zweite Teil 402 umfasst das PLD 101, das beispielhaft ein FPGA ist. Bei darstellenden Ausführungsbeispielen sind der erste und der zweite Teil 401, 402 Pakete, die die genannten Komponenten umfassen. Die Pakete sind beispielsweise ähnlich zu jenen, die in Verbindung mit dem gepackten LSoC 301 beschrieben wurden.
  • Wie vorangehend beschrieben wurde, ist es häufig vorteilhaft, eine Wärmeausdehnung in dem Standortsystem so weit wie möglich zu verringern. Bei dem vorliegenden Ausführungsbeispiel sind die Komponenten, die zum Beleuchten und Erfassen des Ziels benötigt werden, in dem ersten Teil 401 vorgesehen; und die Komponenten, die zum Berechnen der absoluten Position und zum Steuern der verschiedenen Komponenten des Systems 400 benötigt werden, sind in dem zweiten Teil 402 vorgesehen. Dadurch sind die elektronischen Komponenten, die die Hauptquellen einer Wärmeerzeugung sind, getrennt, um die Auswirkung einer Wärmeausdehnung auf die Messpräzision zu verringern.
  • Bei einem anderen Ausführungsbeispiel umfasst der erste Teil 401 den digitalen Bildsensor 102, die Beleuchtungsquelle 103 und ein erstes PLD. Der zweite Teil 402 umfasst ein zweites PLD. Das erste PLD ist angepasst, um bestimmte Berechnungen des Verfahrens auszuführen, beschrieben in der Stammanmeldung und dem U.S.-Patent, auf das Bezug genommen wird. Als Veranschaulichung kann das erste PLD Softwaremodule zum Ausführen bestimmter Datenakkumulationen umfassen, wie z. B. der Summierungen von Zeilen und Spalten von Pixeln von erfassten Bildern. Das zweite PLD kann dann jeweilige Bildvektoren erzeugen, die die Summierungen von Zeilen und Spalten von Pixelwerten von dem Bild darstellen; und die absolute Position des Teilsatzes des Zielmusters relativ zu dem Ursprung bestimmen. Zusätzlich dazu kann das zweite PLD auch die Steuerfunktionalität umfassen, die in Verbindung mit dem PLD 101 bei anderen Ausführungsbeispielen beschrieben ist.
  • Es wird darauf hingewiesen, dass die PLDs des vorliegend beschriebenen Ausführungsbeispiels eines oder mehrere einer Vielzahl von PLDs sein können, wie vorangehend beschrieben wurde. Darstellend können die PLDs FPGAs sein, die mit Softwaremodulen (Kernen) instanziiert sind, um Funktionen des Standortsystems 400 auszuführen. Ferner soll die beschriebene Unterteilung der Funktionalität der PLDs ausschließlich darstellend sein. Es wird betont, dass ein Fachmann auf dem Gebiet ohne weiteres andere Unterteilungen der Funktionalität zwischen den PLDs erkennt, sowie die Verwendung von mehr als 2 PLDs in dem System.
  • 5 ist ein Flussdiagramm eines Verfahrens 500 zum Bestimmen eines Standorts gemäß einem darstellenden Ausführungsbeispiel. Das Verfahren 500 kann in den verschiedenen, vorangehend beschriebenen Standortsystemen implementiert sein.
  • Bei Schritt 501 wird ein Objekt mit einem zweidimensionalen Zielmuster beleuchtet. Diese Beleuchtung wird durch die Beleuchtungsquelle 103 ausgeführt, die oben beschrieben wurde. Es wird betont, dass das Verfahren erweitert werden kann, um absolute Standorte eines Teilsatzes eines Zielmusters in mehr als zwei Dimensionen zu bestimmen. Details einer Bestimmung eines Zielorts in mehr als zwei Dimensionen werden nicht beschrieben, um ein Verunklaren der Beschreibung der vorliegenden Ausführungsbeispiele zu vermeiden.
  • Bei Schritt 502 wird ein Bild eines Teilsatzes des Zielmusters erfasst, wie z. B. durch den digitalen Bildsensor 103. Wie vorangehend beschrieben wurde, wird die Synchronisation der Beleuchtung und Bilderfassung durch das PLD 101 gesteuert.
  • Bei Schritt 503, nachdem die Bilddaten 108 von dem digitalen Bildsensor 103 zu dem PLD 101 geliefert werden, werden ein erster Bildvektor und ein zweiter Bildvektor erzeugt. Die Erzeugung der Bildvektoren wird z. B. in entsprechenden Kernen 105 des PLD 101 ausgeführt. Alternativ kann bei Ausführungsbeispielen, wie z. B. in Verbindung mit 4 beschrieben ist, die Erzeugung von Bildvektoren in dem ersten PLD oder dem zweiten PLD oder einer Kombination derselben ausgeführt werden. Spezifische Details des Verfahrens zum Erzeugen der Bildvektoren werden in Verbindung mit den obigen, darstellenden Ausführungsbeispielen beschrieben und in der Stammanmeldung und dem Patent, auf das Bezug genommen wird, gegeben.
  • Bei Schritt 504, nachdem die Bildvektoren erzeugt sind, wird eine absolute Position eines Standorts des Teilsatzes eines Zielmusters relativ zu einem Ursprung des Zielmusters bestimmt. Wiederum wird die Bestimmung des Standorts in jeweiligen Kernen des (der) PLD(s) der darstellenden Ausführungsbeispiele und durch Verfahren ausgeführt, die in der Stammanmeldung und dem Patent, auf das Bezug genommen wird, beschrieben sind. Diese Daten werden zu den Benutzern als Standortdaten 109 geliefert.
  • Im Hinblick auf diese Offenbarung wird darauf hingewiesen, dass die verschiedenen Verfahren und Vorrichtungen, die hierin beschrieben sind, in Hardware und in Software implementiert sein können. Ferner sind die verschiedenen Verfahren und Parameter ausschließlich beispielhaft und nicht in einem einschränkenden Sinn aufgenommen. Im Hinblick auf diese Offenbarung können Fachleute auf dem Gebiet die vorliegenden Lehren beim Bestimmen ihrer eigenen Techniken und benötigten Ausrüstung zum Implementieren dieser Techniken implementieren, während sie innerhalb des Schutzbereichs der beiliegenden Ansprüche verbleiben.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 7230727 [0001, 0024]

Claims (24)

  1. Standortsystem (100), das folgende Merkmale aufweist: einen Bildsensor (102), der angepasst ist, um ein Bild (107) eines Teilsatzes eines Zielmusters (203) zu erfassen; und ein programmierbares Logikbauelement (PLD) (101), das wirksam ist, um einen ersten Bildvektor, der Summierungen von Zeilen von Pixelwerten von dem Bild (107) darstellt, und einen zweiten Bildvektor, der Summierungen von Spalten von Pixelwerten von dem Bild (107) darstellt, zu erzeugen, wobei das PLD konfiguriert ist, um aus den Bildvektoren eine absolute Position des Teilsatzes in zumindest zwei Dimensionen im Hinblick auf einen Ursprung (205) des Zielmusters (203) zu bestimmen.
  2. Standortsystem (100) gemäß Anspruch 1, das ferner folgendes Merkmal aufweist: eine Steuerung (104), die mit dem PLD (101) verbunden ist und angepasst ist, um Betriebsparameter des PLD (101) einzugeben.
  3. Standortsystem (100) gemäß Anspruch 1 oder 2, das ferner folgendes Merkmal aufweist: eine Steuerung (104), die mit dem PLD (101) verbunden ist und angepasst ist, um Daten von dem PLD (101) zu empfangen und, basierend auf den Daten, einen Status eines Betriebsparameters des Systems zu bestimmen.
  4. Standortsystem (100) gemäß einem der Ansprüche 1 bis 3, bei dem das PLD (101) ein feldprogrammierbares Gatearray (FPGA) aufweist.
  5. Standortsystem gemäß Anspruch 4, bei dem das FPGA ferner zumindest zwei Kerne (105) aufweist, wobei jeder der Kerne (105) wirksam ist, um die absolute Position für eine entsprechende der Dimensionen zu bestimmen.
  6. Standortsystem gemäß Anspruch 4 oder 5, das ferner eine Steuerung (104) aufweist, die in das FPGA eingebettet ist und angepasst ist, um Operationen auszuführen, die folgende aufweisen: Eingeben von Betriebsparametern in das FPGA oder Empfangen von Daten von dem FPGA und, basierend auf den Daten, Bestimmen eines Status eines Betriebsparameters des Systems, oder beides.
  7. Standortsystem (100) gemäß einem der Ansprüche 1 bis 6, das ferner ein anderes PLD (101) aufweist, das angepasst ist, um Daten zu dem PLD (101) zu liefern.
  8. Standortsystem gemäß einem der Ansprüche 5 bis 7, bei dem jeder der Kerne (105) ein Softwarekern ist, der in dem FPGA instanziiert ist.
  9. Standortsystem (100) gemäß einem der Ansprüche 6 bis 8, bei dem die Steuerung (104) in Software verkörpert ist.
  10. Standortsystem gemäß einem der Ansprüche 5 bis 9, bei dem die Kerne (105) absolute Positionen in jeweiligen Dimensionen gleichzeitig bestimmen.
  11. Standortsystem (100) gemäß einem der Ansprüche 1 bis 10, wobei das System ferner folgende Merkmale aufweist: einen ersten Teil (401), der den Bildsensor (102), eine Beleuchtungsquelle (103) und das PLD (101) umfasst; und einen zweiten Teil (402), der ein anderes PLD (101) umfasst.
  12. Standortsystem gemäß einem der Ansprüche 1 bis 11, wobei das System ferner folgende Merkmale aufweist: einen ersten Teil (401), der den Bildsensor (102) und eine Beleuchtungsquelle (103) umfasst; und einen zweiten Teil (402), der das PLD (101) umfasst.
  13. Standortsystem auf einem Chip (LSoC) (300), das folgende Merkmale aufweist: einen Bildsensor (102), der angepasst ist, um ein Bild (107) eines Teilsatzes eines Zielmusters (203) zu erfassen; und ein programmierbares Logikbauelement (PLD) (101), das wirksam ist, um einen ersten Bildvektor, der Summierungen von Zeilen von Pixelwerten von dem Bild (107) darstellt, und einen zweiten Bildvektor, der Summierungen von Spalten von Pixelwerten von dem Bild (107) darstellt, zu erzeugen, wobei das PLD (101) konfiguriert ist, um eine absolute Position des Teilsatzes im Hinblick auf einen Ursprung (205) des Zielmusters (203) in zumindest zwei Dimensionen zu bestimmen.
  14. LSoC (300) gemäß Anspruch 13, das ferner folgendes Merkmal aufweist: eine Steuerung (104), die mit dem PLD (101) verbunden ist und angepasst ist, um Betriebsparameter in das PLD (101) einzugeben.
  15. LSoC (300) gemäß Anspruch 13 oder 14, das ferner folgende Merkmale aufweist: eine Steuerung (104), die mit dem PLD (101) verbunden ist und angepasst ist, um Daten von dem PLD (101) zu empfangen und basierend auf den Daten einen Status eines Betriebsparameters des Systems zu bestimmen.
  16. LSoC (300) gemäß Anspruch 14 oder 15, bei dem das PLD (101) ein feldprogrammierbares Gatearray (FPGA) aufweist.
  17. LSoC (300) gemäß Anspruch 16, bei dem das FPGA ferner zumindest zwei Kerne (105) aufweist, wobei jeder der Kerne (105) wirksam ist, um die absolute Position für eine jeweilige der Dimensionen zu bestimmen.
  18. LSoC (300) gemäß Anspruch 16 oder 17, das ferner eine Steuerung (104) aufweist, die in das FPGA eingebettet ist und angepasst ist zum: Eingeben von Betriebsparametern in das FPGA oder Empfangen von Daten von dem PLD und, basierend auf den Daten, Bestimmen eines Status eines Betriebsparameters des Systems, oder für beides.
  19. LSoC (300) gemäß einem der Ansprüche 13 bis 18, wobei das LSoC ferner ein anderes PLD (101) aufweist, das angepasst ist, um Daten zu dem PLD (101) zu liefern.
  20. LSoC (300) gemäß einem der Ansprüche 17 bis 19, bei dem jeder der Kerne (105) ein Softwarekern ist, der in dem FPGA instanziiert ist.
  21. LSoC (300) gemäß Anspruch 20, bei dem die Steuerung (104) in Software verkörpert ist.
  22. LSoC (300) gemäß einem der Ansprüche 17 bis 21, bei dem die Kerne (105) jeweilige absolute Positionen gleichzeitig ablaufend bestimmen.
  23. Verfahren (500) zum Bestimmen eines Standorts, wobei das Verfahren folgende Schritte aufweist: Beleuchten eines Objekts mit einem Zielmuster (501); Erfassen eines Bildes eines Teilsatzes des Zielmusters (502); und bei einem feldprogrammierbaren Gatearray (FPGA): Erzeugen eines ersten Bildvektors, der Summierungen von Zeilen von Pixelwerten von dem Bild darstellt, und eines zweiten Bildvektors, der Summierungen von Spalten von Pixelwerten von dem Bild darstellt (503); und Bestimmen einer absoluten Position des Teilsatzes im Hinblick auf einen Ursprung (205) des Zielmusters in zumindest zwei Dimensionen (504).
  24. Verfahren (500) gemäß Anspruch 23, bei dem das Bestimmen in den zumindest zwei Dimensionen gleichzeitig ausgeführt wird.
DE102008026865A 2007-07-17 2008-06-05 Systemarchitektur zur Erfassung einer absoluten Position unter Verwendung eines Zielmusters Withdrawn DE102008026865A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/778,813 2007-07-17
US11/778,813 US7869662B2 (en) 2005-04-22 2007-07-17 System architecture for sensing an absolute position using a target pattern

Publications (1)

Publication Number Publication Date
DE102008026865A1 true DE102008026865A1 (de) 2009-01-29

Family

ID=40072098

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008026865A Withdrawn DE102008026865A1 (de) 2007-07-17 2008-06-05 Systemarchitektur zur Erfassung einer absoluten Position unter Verwendung eines Zielmusters

Country Status (3)

Country Link
US (1) US7869662B2 (de)
JP (1) JP5128360B2 (de)
DE (1) DE102008026865A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016220573A1 (de) * 2016-10-20 2018-04-26 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen einer Position und/oder Orientierung eines frei schwebenden Elements

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2254091B1 (de) * 2009-05-19 2020-03-25 Veoneer Sweden AB Sichtsystem und -verfahren für ein Kraftfahrzeug
JP6239881B2 (ja) * 2013-07-10 2017-11-29 浜松ホトニクス株式会社 画像取得装置及び画像取得方法
US11061338B2 (en) * 2014-04-17 2021-07-13 Nikon Corporation High-resolution position encoder with image sensor and encoded target pattern
EP3064902B1 (de) * 2015-03-06 2017-11-01 Hexagon Technology Center GmbH System zur bestimmung von positionen
CN110132327B (zh) * 2019-06-05 2021-09-17 知恒科技(天津)有限公司 一种光电编码器

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7230727B2 (en) 2005-04-22 2007-06-12 Agilent Technologies, Inc. System for sensing an absolute position in two dimensions using a target pattern

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4096477B2 (ja) * 1999-07-23 2008-06-04 松下電工株式会社 画像処理システムおよびその構成方法
US7249094B2 (en) * 2001-02-26 2007-07-24 Paypal, Inc. System and method for depicting on-line transactions
US7065258B2 (en) * 2001-05-21 2006-06-20 Mitutoyo Corporation Systems and methods for reducing accumulated systematic errors in image correlation displacement sensing systems
US7409092B2 (en) * 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
GB0220228D0 (en) * 2002-09-02 2002-10-09 Univ Heriot Watt Absolute phase measuring sensor
US7321112B2 (en) * 2003-08-18 2008-01-22 Gentex Corporation Optical elements, related manufacturing methods and assemblies incorporating optical elements
KR100726142B1 (ko) * 2004-02-18 2007-06-13 마쯔시다덴기산교 가부시키가이샤 화상 보정 방법 및 화상 보정 장치
US7275474B2 (en) * 2005-05-31 2007-10-02 Parker-Hannifincorporation Optical position sensing and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7230727B2 (en) 2005-04-22 2007-06-12 Agilent Technologies, Inc. System for sensing an absolute position in two dimensions using a target pattern

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016220573A1 (de) * 2016-10-20 2018-04-26 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen einer Position und/oder Orientierung eines frei schwebenden Elements

Also Published As

Publication number Publication date
US7869662B2 (en) 2011-01-11
JP2008292475A (ja) 2008-12-04
US20080291470A1 (en) 2008-11-27
JP5128360B2 (ja) 2013-01-23

Similar Documents

Publication Publication Date Title
DE102017217320B4 (de) Linsensystem variabler brennweite und fokuskontrolle
EP2710331B1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE102018200154A1 (de) Kalibrationsvorrichtung, Kalibrationsverfahren und Programm für einen visuellen Sensor
DE102016213122A1 (de) Mehrstufige Bildschärfe unter Verwendung einer abstimmbaren Linse in einem maschinellen Sichtinspektionssystem
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
DE102008026865A1 (de) Systemarchitektur zur Erfassung einer absoluten Position unter Verwendung eines Zielmusters
EP3278302A1 (de) Bewegungsmesssystem einer maschine und verfahren zum betreiben des bewegungsmesssystems
DE102012216908B4 (de) Verfahren unter Verwendung einer Bildkorrelation zum Bestimmen von Positionsmessungen in einem Maschinenvisionssystem
DE102013209770B4 (de) Verfahren zur Bestimmung von einstellbaren Parametern mehrerer Koordinatenmessgeräte sowie Verfahren und Vorrichtung zur Erzeugung mindestens eines virtuellen Abbilds eines Messobjekts
EP3467432A1 (de) Verfahren zum betreiben einer vorrichtung zum erfassen der dreidimensionalen geometrie von objekten
EP3166312A1 (de) Vorrichtung und verfahren zum justieren und/oder kalibrieren eines multi-kamera moduls sowie verwendung einer solchen vorrichtung
DE102016220757A1 (de) Verfahren und Vorrichtung zur Materialbahnbeobachtung und Materialbahninspektion
DE102012220882A1 (de) System und Verfahren unter Verwendung eines Bearbeitungsinitialisierungsblocks in einer Teileprogramm-Bearbeitungsumgebung in einem Maschinenvisionssystem
DE602004011093T2 (de) Einrichtung zum scannen dreidimensionaler objekte
DE102007025304B4 (de) Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit
DE102019203963A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und bildverarbeitungsmessvorrichtung
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
DE102016102579A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Vielzahl von Raumkoordinaten an einem Gegenstand
DE102019132174A1 (de) Tag-Linsen-unterstützte Hochgeschwindigkeits-3D-Metrologie und Bildgebung mit erweitertem Tiefenschärfenbereich
DE10316208A1 (de) Navigationssystem und Navigationsverfahren
DE102018117938A1 (de) Verfahren und Bildverarbeitungssystem zum automatischen Erkennen und/oder Korrigierenvon Bildartefakten in Bildern von einer Laufzeitkamera
EP2887010B1 (de) Verfahren und Vorrichtung zum dreidimensionalen optischen Vermessen von Objekten mit einem topometrischen Messverfahren sowie Computerprogramm hierzu
DE102011084979B4 (de) Bildmessgerät
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R082 Change of representative

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER & PAR, DE

R081 Change of applicant/patentee

Owner name: KEYSIGHT TECHNOLOGIES, INC. (N.D.GES.D.STAATES, US

Free format text: FORMER OWNER: AGILENT TECHNOLOGIES INC., SANTA CLARA, CALIF., US

Effective date: 20141111

R082 Change of representative

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER & PAR, DE

Effective date: 20141111

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER, SCHE, DE

Effective date: 20141111

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee