DE112021004793T5 - Vorrichtung für dreidimensionale Messungen - Google Patents

Vorrichtung für dreidimensionale Messungen Download PDF

Info

Publication number
DE112021004793T5
DE112021004793T5 DE112021004793.0T DE112021004793T DE112021004793T5 DE 112021004793 T5 DE112021004793 T5 DE 112021004793T5 DE 112021004793 T DE112021004793 T DE 112021004793T DE 112021004793 T5 DE112021004793 T5 DE 112021004793T5
Authority
DE
Germany
Prior art keywords
light
interest
region
receiving unit
reference light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021004793.0T
Other languages
English (en)
Inventor
Fumikazu Warashina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE112021004793T5 publication Critical patent/DE112021004793T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Diese Vorrichtung für dreidimensionale Messungen weist auf: eine Projektionseinheit, die ein Referenzlicht auf ein Objekt projiziert, während sie ein Abtasten mit dem Licht durchführt; eine Lichtempfangseinheit, die das an dem Objekt reflektierte Referenzlicht empfängt; eine Zeitdauer-Einstelleinheit, die eine Abtastzeitdauer des Referenzlichts gemäß einem Entfernungsmessbereich für jeden vorgegebenen Abschnitt der Lichtempfangseinheit einstellt; und eine Einheit zur Berechnung von dreidimensionalen Informationen, die dreidimensionale Informationen über das Objekt W mithilfe von Triangulation auf Grundlage von Informationen der Lichtempfangseinheit innerhalb der eingestellten Abtastzeitdauer berechnet.

Description

  • Gebiet der Technik
  • Die vorliegende Erfindung bezieht sich auf eine Vorrichtung für dreidimensionale Messungen und im Besonderen auf eine Vorrichtung für dreidimensionale Messungen mithilfe von optischem Abtasten.
  • Stand der Technik
  • Als Entfernungsmessverfahren auf Grundlage von Triangulation mithilfe eines strukturierten Lichts sind ein Lichtprojektionsverfahren wie zum Beispiel ein Lichtschnittverfahren, ein Phasenverschiebungsverfahren und ein Raumcodierungsverfahren vorgeschlagen worden. In dem Lichtschnittverfahren wird während eines Abtastens eines Objekts ein bandförmiges Schlitzlicht auf ein Objekt projiziert, das Objekt wird von einer Abbildungsposition aus abgebildet, die sich von einer Projektionsposition unterscheidet, und die Entfernung zu dem Objekt wird durch Triangulation auf Grundlage eines Projektionswinkels des Schlitzlichts, eines Einfallswinkels des Schlitzlichts auf die Abbildungsfläche und einer Basislinienlänge zwischen der Lichtprojektionsposition und der Abbildungsposition berechnet. Der Projektionswinkel des Schlitzlichts kann zum Beispiel aus einem Befehlswert an eine Abtastvorrichtung oder einer Erfassungszeit einer hellen Linie des Schlitzlichts, die auf der Abbildungsfläche erscheint, gewonnen werden, und der Einfallswinkel des Schlitzlichts kann zum Beispiel aus der Einfallsposition des Schlitzlichts auf die Abbildungsfläche gewonnen werden. Dem Lichtschnittverfahren wird eine hohe Genauigkeit nachgesagt, jedoch ist im Vergleich mit dem Phasenverschiebungsverfahren oder dem Raumcodeverfahren die Anzahl von für eine einzelne Messung erforderlichen Bildern größer, und daher besteht das Problem, dass die Messung sehr lange dauert.
  • In den letzten Jahren ist ein ereignisbasierter Bildsensor vorgeschlagen worden, der auf einem anderen Konzept als allgemeine rahmenbasierte Bildsensoren beruht. Der rahmenbasierte Bildsensor gibt in vorgegebenen Intervallen Rahmenbilder aus, indem er durch Öffnen/Schließen eines Verschlusses über einen vorgegebenen Zeitraum belichtet wird. Demgegenüber überwacht der ereignisbasierte Bildsensor jedes Pixel unabhängig und asynchron von Moment zu Moment, und wenn ein Ereignis (zum Beispiel eine Änderung der Leuchtdichte, die einen vorgegebenen Pegel überschreitet) erfasst wird, werden die Position, der Zeitpunkt und die Polarität (zum Beispiel ob es heller (positiv) oder dunkler (negativ) geworden ist) des Pixels, bei dem das Ereignis aufgetreten ist, als Ereignisinformationen ausgegeben. Der ereignisbasierte Bildsensor hat einen größeren Dynamikbereich als der rahmenbasierte Bildsensor und ist schneller, da er nur Ereignisinformationen ausgibt. Daher versteht es sich, dass die Verwendung des ereignisbasierten Bildsensors zu einer Beschleunigung des Lichtschnittverfahrens beiträgt.
  • Im Idealfall sollten die durch den ereignisbasierten Bildsensor erzeugten Ereignisse nur durch das Abtasten des Schlitzlichts verursacht werden. Jedoch treten beim Abtasten einer tatsächlichen Szene nicht immer nur ideale Ereignisse auf, und ein Rauschereignis kann durch andere Faktoren als das Abtasten des Schlitzlichts auftreten. Bei einer Entfernungsmessung durch das Lichtschnittverfahren tritt beispielsweise ein Problem einer Mehrfachreflexion des Schlitzlichts auf. Beim Fokussieren auf ein bestimmtes Pixel des Bildsensors ist ursprünglich beabsichtigt, dass dieser nur das primär reflektierte Licht des Schlitzlichts empfängt, das auf einen spezifischen Bereich des in diesem Pixel abgebildeten Objekts gestrahlt wird. Das primär reflektierte Licht des Schlitzlichts, das auf einen weiteren Bereich des Objekts gestrahlt wird, kann jedoch an dem spezifischen Bereich sekundär reflektiert werden und in das Pixel eintreten. Wenn dieses Phänomen auftritt, kann nicht bestimmt werden, ob das Pixel das an dem spezifischen Bereich direkt reflektierte (Einzelreflexion) Schlitzlicht oder das an dem spezifischen Bereich mehrfach reflektierte Schlitzlicht empfängt, wodurch es schwierig wird, die korrekte Entfernung zu messen. Da das mehrfach reflektierte Licht mehrfach reflektiert worden ist, ist es schwächer als das einfach reflektierte Licht, es sei denn, der Reflexionsgrad einer beliebigen reflektierenden Fläche beträgt 100 %. Daher verwendet der rahmenbasierte Bildsensor üblicherweise Leuchtdichteinformationen, um den Einfluss von mehrfach reflektiertem Referenzlicht zu verringern, wohingegen der ereignisbasierte Bildsensor keine Leuchtdichteinformationen ausgibt, so dass kein ähnliches Verfahren angewendet werden kann. Ferner beinhaltet das Rauschen nicht nur Rauschen, das durch das an dem Objekt mehrfach reflektierte Referenzlicht verursacht wird, sondern auch Rauschen, das durch das optische System und/oder den Bildsensor verursacht wird (zum Beispiel Lichtreflexe, Geisterbilder, Aberration usw.). Techniken im Zusammenhang mit der vorliegenden Anmeldung sind zum Beispiel in den folgenden Dokumenten bekannt.
  • Die Patentliteratur 1 offenbart eine Vorrichtung für dreidimensionale Eingaben, wobei Bilder synchron durch zwei Bildsensoren aufgenommen werden, während ein Objekt mit Schlitzlicht abgetastet wird, Rahmennummern, bei denen die Pixel der jeweiligen Bildsensoren die maximale Helligkeit erfassen, gespeichert werden, die Pixel auf Grundlage der Rahmennummern zugeordnet werden und eine Entfernung auf Grundlage der zugeordneten Pixel berechnet wird.
  • Die Patentliteratur 2 offenbart eine dreidimensionale Entfernungsmessung auf Grundlage eines Lichtschnittverfahrens, wobei, wenn der Start des Abtastens und der Start des Zählens der Anzahl von Rahmen des Sensors gleichzeitig durchgeführt werden, ein Schwenkwinkel der Abtastvorrichtung bestimmt wird, indem bekannt ist, bei welchem Rahmen das Schlitzlicht erfasst wurde, wodurch die Entfernung von dem Sensor zu dem Objekt bestimmt werden kann.
  • Die Patentliteratur 3 offenbart eine Formmessvorrichtung, die ein zu messendes Objekt mit einem Lichtstrahl abtastet, wobei ein durch eine Referenzfläche oder eine Fläche des Objekts reflektiertes Strahlpunktlicht photoelektrisch umgewandelt wird und die Flächenform des Objekts auf Grundlage der Zeitdifferenz zwischen dem Anstiegszeitpunkt eines photoelektrisch umgewandelten elektrischen Signals beim Abtasten der Referenzfläche und dem Anstiegszeitpunkt eines photoelektrisch umgewandelten elektrischen Signals beim Abtasten des Objekts bestimmt wird.
  • Die Patentliteratur 4 offenbart eine Vorrichtung zur dreidimensionalen Bilderkennung, die ein Abtastlicht auf ein Prüfgebiet auf einer oberen Fläche einer Platine während eines Transports der Platine strahlt, das durch die Platine und/oder elektronische Bauteile auf der Platine reflektierte Abtastlicht empfängt und die Höhe des elektronischen Bauteils auf Grundlage der Differenz zwischen der Lichtempfangsposition auf der Lichtempfangsfläche, wenn das Licht an der oberen Fläche der Platine reflektiert wird, und der Lichtempfangsposition auf der Lichtempfangsfläche, wenn das Licht an der oberen Fläche des elektronischen Bauteils reflektiert wird, bestimmt, wobei die Wirkungen von Mehrfachreflexionen und Transmissionsreflexionen dadurch verringert werden, dass der Einfall des reflektierten Lichts auf die Lichtempfangsfläche nur auf eine lichtdurchlässige Öffnung mit einer vorgegebenen Einfallsbreite beschränkt wird.
  • Die Patentliteratur 5 offenbart eine Kehlnahtschweiß-Erfassungsvorrichtung, die ein Schlitzlicht auf ein Kehlnahtschweißteil zwischen Elementen einschließlich eines glänzenden Elements strahlt, wobei Winkel einer Lichtquelle und einer Kamera so bestimmt werden, dass ein Bild des Schlitzlichts und ein Bild des sekundär reflektierten Lichts getrennt werden.
  • Die Patentliteratur 6 offenbart eine Konturform-Messvorrichtung, die auf einem Lichtschnittverfahren beruht, wobei eine Schärfentiefe sehr stark verkleinert wird und Bilder von zwei oder mehr Reflexionspunkten nicht in gleichem Maße wie Bilder von einem Reflexionspunkt aufgenommen werden, um Fehlmessungen aufgrund von Mehrfachreflexionen zu unterdrücken.
  • Die Patentliteratur 7 offenbart eine Entfernungsmessvorrichtung, die ein Musterlicht-Projektionsverfahren verwendet, wobei ein Objekt abgebildet wird, auf das ein Linienmuster in einer Richtung im Wesentlichen parallel zu einer Epipolarlinie projiziert wird, und mehrfach reflektierte Lichtbereiche auf Grundlage der Winkeldifferenz zwischen der Richtung der berechneten Linie und der Richtung der Epipolarlinie erfasst werden.
  • Die Patentliteratur 8 offenbart eine ereignisbasierte Bildverarbeitungsvorrichtung, wobei erfasst wird, ob ein vorgegebenes Ereignis in jedem einer Mehrzahl von Pixeln aufgetreten ist, ein Ereignissignal als Reaktion auf die Erfassung ausgegeben wird, Zeitstempelinformationen erzeugt werden, indem mindestens ein dem Ereignissignal entsprechendes Pixel und ein Zeitpunkt, zu dem das Ereignissignal ausgegeben wird, zugeordnet werden, und Lichtströme auf Grundlage der Zeitstempelinformationen erzeugt werden.
  • Die Patentliteratur 9 offenbart ein Verfahren zur dreidimensionalen Rekonstruktion einer Szene, wobei eine erste Reihe von Ereignissen für jedes Pixel von einem ersten Sensor empfangen wird, eine zweite Reihe von Ereignissen für jedes Pixel von einem zweiten Sensor empfangen wird und ein erstes Ereignis in der ersten Reihe von Ereignissen mit einem zweiten Ereignis in der zweiten Reihe von Ereignissen gemäß der Minimierung einer Kostenfunktion abgestimmt wird.
  • Die Patentliteratur 10 offenbart ein Verfahren für dreidimensionale Messungen und eine Vorrichtung zum dreidimensionalen Messen eines Objekts anhand von jeweiligen Querschnittsdaten für jeden vorgegebenen Abstand, die durch gemeinsames Bewegen eines Schlitzlichts und einer Kamera entlang der Längsrichtung des Objekts gewonnen werden, wobei ein schmales Fenster, das das Schlitzlicht rechtwinklig schneidet, auf einem Bildsensor eingestellt wird und Leuchtdichtedaten mit der maximalen Leuchtdichte innerhalb des Fensters und Koordinatendaten in der y-Achsenrichtung zu dieser Zeit erfasst werden.
  • Die Patentliteratur 11 beschreibt, dass ein ROI (Region of Interest, interessierender Bereich), der einem interessierenden Objekt entspricht, auf Grundlage eines Ergebnisses einer Mustererkennung eingestellt wird, und es dann durch Verfolgen des interessierenden Objekts möglich ist zu verhindern, dass eine Menge von Ereignisdaten immens wird und eine Latenzzeit der Ereignisverarbeitung lang wird.
  • Die Patentliteratur 12 offenbart ein Entfernungsmesssystem, das eine Entfernung zu einem Objekt mithilfe eines Ereigniserfassungssensors und einer Strukturlichttechnologie misst, und beschreibt ein Verfahren zum Synchronisieren eines Bildsensors mit einem strukturierten Licht, insbesondere zum Zurücksetzen des Bildsensors synchron mit einem Schalten eines Musterlichts.
  • Liste der Zitate
  • Patentliteratur
    • [PTL 1] JP 2000-088539 A
    • [PTL 2] JP 2006-333493 A
    • [PTL 3] JP 2003-329419 A
    • [PTL 4] JP 2013-148353 A
    • [PTL 5] JP 1999(H11)-033275 A
    • [PTL 6] JP 2001-227923 A
    • [PTL 7] JP 2012-141964 A
    • [PTL 8] JP 2014-002744 A
    • [PTL 9] JP 2018-516395 A
    • [PTL 10] JP 1995(H07)-260444 A
    • [PTL 11] JP 2020-136958 A
    • [PTL 12] JP 2021-032763 A
  • Übersicht über die Erfindung
  • Technisches Problem
  • Der Zweck der vorliegenden Erfindung besteht darin, den Einfluss eines Rauschens wie zum Beispiel mehrfach reflektierter Referenzlichtstrahlen zu verringern, wenn eine Entfernungsmessung durch optisches Abtasten durchgeführt wird.
  • Lösung des Problems
  • Ein Aspekt der vorliegenden Offenbarung sieht eine Vorrichtung für dreidimensionale Messungen vor, die aufweist: eine Projektionseinheit, die dazu ausgebildet ist, ein Referenzlicht auf ein Objekt zu projizieren, während sie das Objekt mit dem Referenzlicht abtastet; eine Lichtempfangseinheit, die dazu ausgebildet ist, das durch das Objekt reflektierte Referenzlicht zu empfangen; eine Zeitdauer-Einstelleinheit, die dazu ausgebildet ist, eine Abtastzeitdauer des Referenzlichts gemäß einem Entfernungsmessbereich für jeden vorgegebenen Abschnitt der Lichtempfangseinheit einzustellen; und eine Einheit zur Berechnung von dreidimensionalen Informationen, die dazu ausgebildet ist, dreidimensionale Informationen des Objekts mithilfe von Triangulation auf Grundlage von Informationen der Lichtempfangseinheit in der eingestellten Abtastzeitdauer zu berechnen.
  • Ein weiterer Aspekt der vorliegenden Offenbarung sieht eine Vorrichtung für dreidimensionale Messungen vor, die aufweist: eine Projektionseinheit, die dazu ausgebildet ist, ein Referenzlicht auf ein Objekt zu projizieren, während sie das Objekt mit dem Referenzlicht abtastet; eine Lichtempfangseinheit, die dazu ausgebildet ist, das durch das Objekt reflektierte Referenzlicht zu empfangen, nur Informationen in einem interessierenden Bereich auszugeben und den interessierenden Bereich entsprechend dem Abtasten des Referenzlichts zu bewegen; und eine Einheit zur Berechnung von dreidimensionalen Informationen, die dazu ausgebildet ist, dreidimensionale Informationen des Objekts mithilfe von Triangulation auf Grundlage von Informationen der Lichtempfangseinheit in dem interessierenden Bereich zu berechnen.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß dem einen Aspekt der vorliegenden Offenbarung kann, da das Referenzlicht, das direkt an einem bestimmten Bereich des Objekts reflektiert wird, immer innerhalb der Abtastzeitdauer des Referenzlichts empfangen wird, die dem Entfernungsmessbereich entspricht, der Einfluss von Rauschen, das durch mehrfach reflektiertes Referenzlicht usw. verursacht wird, verringert werden, indem die Informationen der Lichtempfangseinheit außerhalb der eingestellten Abtastzeitdauer ausgeschlossen werden. Es ist zu beachten, dass der Entfernungsmessbereich einen messbaren Bereich bedeutet, der gemäß erforderlichen Spezifikationen vorgegeben ist.
  • Gemäß dem anderen Aspekt der vorliegenden Offenbarung kann der Einfluss von Rauschen, das durch mehrfach reflektiertes Referenzlicht usw. verursacht wird, verringert werden, indem die Informationen der Lichtempfangseinheit außerhalb des interessierenden Bereichs ausgeschlossen werden. Da die Lichtempfangseinheit die Informationen nur in dem interessierenden Bereich ausgibt, wird außerdem die Latenzzeit der Lichtempfangseinheit aufgrund von übermäßigem Rauschen verglichen mit dem Fall verringert, in dem die Informationen der Lichtempfangseinheit nur durch die Abtastzeitdauer des Referenzlichts beschränkt werden.
  • Figurenliste
    • 1 ist eine Draufsicht auf eine Stereokamera, die ein Messprinzip eines Stereoverfahrens darstellt.
    • 2 ist eine Draufsicht auf ein Lichtschnittsystem, das ein Messprinzip eines Lichtschnittverfahrens darstellt.
    • 3 ist eine graphische Blockdarstellung einer Vorrichtung für dreidimensionale Messungen einer ersten Ausführungsform.
    • 4A ist eine Draufsicht auf die Vorrichtung für dreidimensionale Messungen, die ein Verfahren zum Einstellen einer Abtastzeitdauer darstellt.
    • 4B ist eine Draufsicht auf die Vorrichtung für dreidimensionale Messungen, die darstellt, wie ein Einfluss von Rauschen wie zum Beispiel mehrfach reflektiertes Referenzlicht verringert wird.
    • 5A ist eine Draufsicht auf eine Lichtempfangsfläche, die ein Beispiel für ein Einstellen von Abschnitten der Abtastzeitdauer darstellt.
    • 5B ist eine Draufsicht auf eine Lichtempfangsfläche, die ein Beispiel für ein Einstellen von Abschnitten der Abtastzeitdauer darstellt.
    • 5C ist eine Draufsicht auf eine Lichtempfangsfläche, die ein Beispiel für ein Einstellen von Abschnitten der Abtastzeitdauer darstellt.
    • 6 ist ein Ablaufplan der Vorrichtung für dreidimensionale Messungen der ersten Ausführungsform.
    • 7A ist eine Draufsicht auf die Vorrichtung für dreidimensionale Messungen, die einen interessierenden Bereich einer ersten Ausführungsform darstellt.
    • 7B ist eine Draufsicht auf die Vorrichtung für dreidimensionale Messungen, die einen interessierenden Bereich einer zweiten Ausführungsform darstellt.
    • 8 ist eine graphische Blockdarstellung einer Vorrichtung für dreidimensionale Messungen einer zweiten Ausführungsform.
    • 9A ist eine graphische Bilddarstellung, die ein Beispiel für ein Einstellen des interessierenden Bereichs zeigt.
    • 9B ist eine graphische Bilddarstellung, die eine Modifizierung des Einstellens des interessierenden Bereich zeigt.
  • Beschreibung von Ausführungsformen
  • Die Ausführungsformen der vorliegenden Offenbarung werden im Folgenden unter Bezugnahme auf die beigefügten Zeichnungen ausführlich beschrieben. In den Zeichnungen sind übereinstimmenden oder ähnlichen Bestandteilen dieselben oder ähnliche Bezugszeichen zugewiesen worden. Ferner schränken die im Folgenden beschriebenen Ausführungsformen den technischen Umfang der in den Ansprüchen beschriebenen Erfindung oder die Definitionen der Begriffe nicht ein.
  • Es wird ein Messprinzip einer Vorrichtung für dreidimensionale Messungen einer vorliegenden Ausführungsform beschrieben. Zum einfachen Verständnis werden zunächst Messprinzipien eines Stereoverfahrens und eines Lichtschnittverfahrens beschrieben. 1 ist eine Draufsicht auf eine Stereokamera 1, die das Messprinzip des Stereoverfahrens darstellt. Die Stereokamera 1 weist eine linke Lichtempfangseinheit 2 und eine rechte Lichtempfangseinheit 3 auf, die zum Beispiel zwei Kameras entsprechen. Beispielsweise sind die linke und die rechte Lichtempfangseinheit 2 und 3 äquiparallel zueinander angeordnet. Das heißt, die beiden Lichtempfangseinheiten sind durch eine Basislinienlänge B getrennt, optische Achsen der Lichtempfangseinheiten sind parallel angeordnet, eine linke Lichtempfangsfläche 4 und eine rechte Lichtempfangsfläche 5 sind in einer Ebene orthogonal zu beiden optischen Achsen angeordnet, so dass die x- und die y-Richtung jeder Lichtempfangsfläche in dieselbe Richtung orientiert sind. Jede Lichtempfangsfläche ist beispielsweise ein Bildsensor, in dem eine Mehrzahl von Pixeln zweidimensional angeordnet ist, kann jedoch auch ein Zeilensensor usw. sein, in dem eine Mehrzahl von Pixeln eindimensional (zum Beispiel nur in der x-Richtung) angeordnet ist.
  • In der Annahme, dass eine Position eines Pixels auf der linken Lichtempfangsfläche 4, auf die ein Bild eines Punktes P eines in einem Objektraum vorhandenen Objekts projiziert wird, als xI bestimmt wird und eine Position eines Pixels auf der rechten Lichtempfangsfläche 5, auf die das Bild des Punktes P des Objekts projiziert wird, als xr bestimmt wird, beträgt eine Ungleichheit D zwischen der linken und der rechten Lichtempfangseinheit 2 und 3 in diesem Zusammenhang (xI - xr) (D = xI - xr). In der Annahme, dass der Ursprung des xyz-Koordinatensystems, das den dreidimensionalen Raum darstellt, an einem rechten Brennpunkt platziert ist, eine Brennweite jeder Lichtempfangseinheit f ist und ein Abstand zwischen Pixeln in jeder der Lichtempfangsflächen 1 ist, wird eine Entfernung Z zu dem Punkt P des Objekts (eine Tiefe bis zu dem Punkt P (im Folgenden wie oben)) aus der folgenden Gleichung gewonnen.
    [Math 1] Z = B ƒ D
    Figure DE112021004793T5_0001
  • Die Basislinienlänge B und die Brennweite f sind Konstanten, die durch die Konstruktion der Stereokamera 1 bestimmt werden. Wenn also das Bild des Punktes P auf der rechten Lichtempfangsfläche 5, das dem Bild des Punktes P auf der linken Lichtempfangsfläche 4 entspricht, durch Bildverarbeitung wie zum Beispiel Musterabgleich erfasst werden kann, kann die Ungleichheit D gewonnen werden, und anschließend kann die Entfernung Z zu dem Punkt P des Objekts gewonnen werden.
  • Das Lichtschnittsystem wird gewonnen, indem zum Beispiel die linke Lichtempfangseinheit 2 der Stereokamera 1 durch eine Lichtprojektionseinheit ersetzt wird. 2 ist eine Draufsicht auf das Lichtschnittsystem 6, das das Messprinzip des Lichtschnittverfahrens darstellt. Das Lichtschnittsystem 6 weist eine Lichtprojektionseinheit 7 auf, die zum Beispiel einem Projektor entspricht. Die Lichtprojektionseinheit 7 projiziert ein bandförmiges Schlitzlicht auf das Objekt, während sie es abtastet, und die rechte Lichtempfangseinheit 3 empfängt das durch das Objekt reflektierte Schlitzlicht. In der Annahme, dass der Startpunkt der Lichtprojektion (oder ein Drehmittelpunkt) an dem linken Brennpunkt der Stereokamera 1 positioniert ist und ein Projektionswinkel von der linken optischen Achse der Stereokamera 1 θ ist, wird die Pixelposition xI der virtuellen linken Lichtempfangsfläche 4 der Lichtprojektionseinheit 7 hierin durch die folgende Gleichung gewonnen.
    [Math 2] x l = ƒ tan θ
    Figure DE112021004793T5_0002
  • In der Annahme, dass die Lichtprojektionseinheit 7 das bandförmige Schlitzlicht von dem Startpunkt der Lichtprojektion aus strahlt, während sie sich mit einer konstanten Winkelgeschwindigkeit ω um die y-Achse senkrecht zu der xz-Ebene dreht, und dass das Schlitzlicht zu einem Zeitpunkt t0 die linke optische Achse durchläuft und das Schlitzlicht zu einem Zeitpunkt t in dem Projektionswinkel θ auf den Punkt P des Objekts projiziert wird, kann der Projektionswinkel θ außerdem durch die folgende Gleichung gewonnen werden.
    [Math 3] θ = ω ( t t 0 )
    Figure DE112021004793T5_0003
  • In der Annahme, dass das reflektierte Licht an dem Punkt P des Schlitzlichts an der Position xr des Pixels auf der rechten Lichtempfangsfläche 5 empfangen wird, kann die Entfernung Z zu dem Punkt P des Objekts daher durch Einsetzen der Gleichungen 2 und 3 in Gleichung 1 gewonnen werden, wie in der folgenden Gleichung dargestellt.
    [Math 4] Z = B ƒ D = B ƒ ƒ tan ( ω ( t t 0 ) ) x r
    Figure DE112021004793T5_0004
  • Die Basislinienlänge B, die Brennweite f, die Winkelgeschwindigkeit ω und der Zeitpunkt t0 sind Konstanten, die durch die Konstruktion des Lichtschnittsystems 6 bestimmt werden. Daher kann die Entfernung Z zu dem Punkt P des Objekts durch Bestimmen des Zeitpunkts t gewonnen werden, zu dem das Schlitzlicht an der Position xr des Pixels auf der rechten Lichtempfangsfläche 5 erfasst wird.
  • Die Vorrichtung für dreidimensionale Messungen der Ausführungsform nutzt eine solche Konfiguration und ein solches Messprinzip des Lichtschnittverfahrens. Es ist jedoch zu beachten, dass die obige Konfiguration und das obige Messprinzip Beispiele sind und dass die Konstruktion gegebenenfalls entsprechend der Konstruktion der/des Systemkonfiguration und -layouts usw. geändert werden kann. Beispielsweise sind die Lichtprojektionseinheit 7 und die rechte Lichtempfangseinheit 3 möglicherweise nicht äquiparallel zueinander angeordnet. Statt die linke Lichtempfangseinheit 2 durch die Lichtprojektionseinheit 7 zu ersetzen, kann ferner die Lichtprojektionseinheit 7 zusätzlich zu der linken und der rechten Lichtempfangseinheit 2 und 3 bereitgestellt werden, um eine Systemkonfiguration einzusetzen, die das Stereoverfahren und das Lichtschnittverfahren kombiniert. Ferner kann die Lichtprojektionseinheit 7 eingesetzt werden, die anstelle des bandförmigen Schlitzlichts ein strahlförmiges Punktlicht oder ein blockkaroförmiges Musterlicht auf das Objekt projiziert. Es ist zu beachten, dass das Berechnungsverfahren der dreidimensionalen Informationen auch entsprechend solchen Konstruktionsänderungen variiert.
  • Im Folgenden wird die Konfiguration einer Vorrichtung für dreidimensionale Messungen einer ersten Ausführungsform erläutert. 3 ist eine graphische Blockdarstellung einer Vorrichtung 8 für dreidimensionale Messungen der ersten Ausführungsform. Die Vorrichtung 8 für dreidimensionale Messungen weist eine Lichtprojektionseinheit 7, die dazu ausgebildet ist, ein Referenzlicht auf ein Objekt W zu projizieren, während sie das Objekt W mit dem Referenzlicht abtastet, und eine Lichtempfangseinheit 3 auf, die dazu ausgebildet ist, das durch das Objekt W reflektierte Referenzlicht zu empfangen. Beispielsweise entspricht die Projektionseinheit 7 einem Projektor und entspricht die Lichtempfangseinheit 3 einer Kamera. Es werde angenommen, dass die Zeiten der Projektionseinheit 7 und der Lichtempfangseinheit 3 synchronisiert werden.
  • Die Lichtprojektionseinheit 7 projiziert ein Referenzlicht wie zum Beispiel ein Schlitzlicht, ein Punktlicht und ein Musterlicht auf das Objekt W. Die Lichtprojektionseinheit 7 kann eine Mehrzahl von Referenzlichtern projizieren und gleichzeitig ein vorgegebenes Projektionswinkelintervall beibehalten. Da die Messzeit der Vorrichtung 8 für dreidimensionale Messungen durch die Zeit bestimmt wird, die benötigt wird, um das Objekt W mit dem Referenzlicht abzutasten, ist es üblich, die Abtastgeschwindigkeit zu erhöhen, um die Messzeit zu verkürzen. In einem solchen Fall wird jedoch die Reaktionsgeschwindigkeit der Lichtempfangseinheit 3 zu einer Einschränkung. Durch Projizieren einer Mehrzahl von Referenzlichtern ist es daher möglich, die Messzeit zu verkürzen und gleichzeitig die Abtastgeschwindigkeit unter der Einschränkung der Reaktionsgeschwindigkeit der Lichtempfangseinheit 3 beizubehalten.
  • Die Lichtempfangseinheit 3 weist beispielsweise einen Bildsensor auf, in dem eine Mehrzahl von Pixeln zweidimensional angeordnet ist, kann jedoch auch einen Zeilensensor aufweisen, in dem eine Mehrzahl von Pixeln eindimensional angeordnet ist. Bei dem Bildsensor der Lichtempfangseinheit 3 handelt es sich zum Beispiel um einen ereignisbasierten Sensor. Bei einem ereignisbasierten Bildsensor überwacht die Lichtempfangseinheit 3 jedes Pixel unabhängig und asynchron von Moment zu Moment. Wenn die Lichtempfangseinheit 3 ein vorgegebenes oder mehrere Ereignisse (z. B. eine Leuchtdichteänderung um einen vorgegebenen Pegel oder mehr) erfasst, gibt die Lichtempfangseinheit 3 Ereignisinformationen aus, die eine Position, einen Zeitpunkt und eine Polarität (z. B. das Pixel wird heller oder dunkler) des Pixels beinhalten, bei dem das Ereignis aufgetreten ist, und so weiter. Alternativ kann der Bildsensor der Lichtempfangseinheit 3 ein herkömmlicher rahmenbasierter Bildsensor sein. Bei einem rahmenbasierten Bildsensor öffnet und schließt die Lichtempfangseinheit 3 einen Verschluss über einen vorgegebenen Zeitraum zur Belichtung, wodurch in vorgegebenen Zeitintervallen Rahmenbilder ausgegeben werden. Die Rahmenbilder enthalten zum Beispiel Rahmennummern und Helligkeitsinformationen jedes Pixels usw.
  • Die Vorrichtung 8 für dreidimensionale Messungen weist auch eine Einheit 9 zur Berechnung von dreidimensionalen Informationen auf, die dazu ausgebildet ist, dreidimensionale Informationen des Objekts W durch Triangulation auf Grundlage von Informationen von der Lichtempfangseinheit 3 zu berechnen. Wenn es sich bei dem Sensor der Lichtempfangseinheit 3 um einen ereignisbasierten Sensor handelt, zeigt das Pixel, das ein Ereignis (z. B. eine Leuchtdichteänderung um einen vorgegebenen Pegel oder mehr) erfasst, das bei einem Pixel aufgetreten ist, an, dass das reflektierte Licht an diesem Pixel empfangen wird, und somit wird die Entfernungsmessung auf Grundlage der Ereignisinformationen (z. B. der Position, der Zeit und der Polarität des Pixels, bei dem sich die Leuchtdichte geändert hat) durchgeführt. Da die Schlitzbreite des Schlitzlichts und der Punktdurchmesser des Punktlichts der Größe mehrerer Pixel entsprechen können, kann die Entfernungsmessung durch Bestimmen des Zwischenzeitpunkts zwischen dem Start des Hellerwerdens und dem Ende des Dunkelwerdens des Pixels durchgeführt werden. Wenn es sich bei dem Sensor der Lichtempfangseinheit 3 demgegenüber um einen rahmenbasierten Sensor handelt, erfasst die Einheit 9 zur Berechnung von dreidimensionalen Informationen die Position und die Rahmennummer (entsprechend dem Zeitpunkt) mit der maximalen Leuchtdichte für jedes Pixel aus der Mehrzahl der von der Lichtempfangseinheit 3 ausgegebenen Rahmenbilder und führt die Entfernungsmessung auf Grundlage dieser Erfassungsinformationen durch.
  • Um den Einfluss von Rauschen, das durch Mehrfachreflexionen usw. des Referenzlichts verursacht wird, zu verringern, weist die Vorrichtung 8 für dreidimensionale Messungen ferner eine Zeitdauer-Einstelleinheit 10 auf, die dazu ausgebildet ist, eine Abtastzeitdauer des Referenzlichts gemäß einem Entfernungsmessbereich für jeden vorgegebenen Abschnitt (der Mehrzahl von Pixeln, die die Lichtempfangsfläche) der Lichtempfangseinheit 3 (bilden) einzustellen. Die Einheit 9 zur Berechnung von dreidimensionalen Informationen schließt die Informationen der Lichtempfangseinheit 3 außerhalb der eingestellten Abtastzeitdauer aus und führt die Entfernungsmessung auf Grundlage der Informationen der Lichtempfangseinheit 3 innerhalb des eingestellten Abtastzeitbereichs durch, wodurch eine fehlerhafte Entfernungsmessung aufgrund von Rauschen, das durch mehrfach reflektiertes Referenzlicht usw. verursacht wird, beschränkt wird.
  • Ein Verfahren zum Einstellen dieser Abtastzeitdauer wird ausführlich beschrieben. 4A ist eine Draufsicht auf die Vorrichtung 8 für dreidimensionale Messungen, die ein Verfahren zum Einstellen der Abtastzeitdauer darstellt. Der Entfernungsmessbereich in der Zeichnung ist ein entfernungsmessbarer Bereich, der gemäß erforderlichen Spezifikationen vorgegeben ist. Wenn beispielsweise die Schärfentiefe der Vorrichtung 8 für dreidimensionale Messungen so ausgelegt ist, dass die Entfernung von 1.000 mm bis 2.000 mm gemessen werden kann, beträgt der Entfernungsmessbereich von 1.000 mm bis 2.000 mm. Da das Licht, das in das Pixel 11 der Lichtempfangseinheit 3 eintritt, immer durch eine Blickrichtung (Sichtlinie) V einfällt, wird das einfallende Licht immer innerhalb der Abtastzeitdauer empfangen, in der das Referenzlicht ein Schnittliniensegment QR der Sichtlinie V und des Entfernungsmessbereichs abtastet, sofern das einfallende Licht ein einfach reflektiertes Licht des Referenzlichts ist und sofern der einfach reflektierte Punkt P des Objekts W innerhalb des Entfernungsmessbereichs liegt. Daher wird die Abtastzeitdauer vorzugsweise durch geometrisches Berechnen der Abtastzeitdauer eingestellt, in der das Referenzlicht das Schnittliniensegment QR der Sichtlinie V des Pixels 11 und des Entfernungsmessbereichs abtastet.
  • Alternativ kann, wenn der Entfernungsmessbereich beispielsweise von 1.000 mm bis 2.000 mm beträgt, das Schlitzlicht abgetastet werden, um den Zeitpunkt aufzuzeichnen, an dem das Bild des Schlitzlichts jedes Pixel durchläuft, während eine flache Platte in einer Entfernung von 1.000 mm platziert ist, ferner kann das Schlitzlicht abgetastet werden, um den Zeitpunkt aufzuzeichnen, an dem das Bild des Schlitzlichts jedes Pixel durchläuft, während die flache Platte in einer Entfernung von 2.000 mm platziert ist, und dann können die gewonnenen beiden Zeitpunkte als Maximal- und Minimalwerte der Abtastzeitdauer bestimmt werden. Da auch Messschwankungen auftreten können, wird die Abtastzeitdauer in der Praxis vorzugsweise mithilfe eines Durchschnitts mehrerer Messungen oder durch Hinzufügen eines gewissen Spielraums eingestellt. Durch Durchführen einer Entfernungsmessung auf Grundlage der Informationen der Lichtempfangseinheit 3 in der auf diese Weise eingestellten Abtastzeitdauer wird es möglich, eine fehlerhafte Entfernungsmessung aufgrund von Rauschen, das durch das mehrfach reflektierte Referenzlicht usw. verursacht wird, zu unterdrücken.
  • 4B ist eine Draufsicht auf die Vorrichtung 8 für dreidimensionale Messungen, die darstellt, wie der Einfluss des mehrfach reflektierten Referenzlichts verringert wird. Wenn das Referenzlicht, das primär durch eine bestimmten Fläche S des Objekts W reflektiert wird, sekundär durch den Punkt P des Objekts W reflektiert wird und in das Pixel 11 einfällt, wird die Wahrscheinlichkeit größer, dass das Referenzlicht außerhalb der eingestellten Abtastzeitdauer in das Pixel 11 einfällt. Durch Durchführen der Entfernungsmessung unter Ausschluss der Informationen der Lichtempfangseinheit 3 außerhalb der eingestellten Abtastzeitdauer ist es daher möglich, eine fehlerhafte Entfernungsmessung aufgrund des mehrfach reflektierten Referenzlichts zu unterdrücken.
  • Diese Abtastzeitdauer kann für jedes Pixel eingestellt werden, wobei ein Pixel aus der Mehrzahl von Pixeln, die die Lichtempfangseinheit 3 bilden, als ein Abschnitt eingestellt wird. Um jedoch einen Einstellspeicher einzusparen und eine Messzeit zu verkürzen, kann die Abtastzeitdauer für jeden Abschnitt eingestellt werden, indem eine Gruppe von benachbarten Pixeln aus der Mehrzahl von Pixeln, die die Lichtempfangseinheit 3 bilden, als ein Abschnitt zusammengefasst wird. 5A bis 5C sind Draufsichten auf die Lichtempfangsfläche 5, die Beispiele für ein Einstellen von Abschnitten der Abtastzeitdauer darstellen. In der Annahme, dass Montagefehler und eine Linsenverzerrung der Vorrichtung 8 für dreidimensionale Messungen ignoriert werden können, kann, wenn das Referenzlicht ein Schlitzlicht ist, so dass ein Bild I des Schlitzlichts parallel zu der y-Achse der Lichtempfangsfläche 5 ausgebildet wird, wenn eine ebene Fläche in der Richtung abgetastet wird, wie in 5A dargestellt, die Abtastzeitdauer (z. B. 0,2 s bis 0,4 s) durch Zusammenfassen der Gruppe von Pixeln in einer oder mehreren Reihen, die das Bild I des Schlitzlichts gleichzeitig erfassen, zu einem Abschnitt eingestellt werden. Wenn das Referenzlicht ein Blockkaromusterlicht ist, so dass ein Bild I des Musterlichts parallel zu der y-Achse der Lichtempfangsfläche 5 ausgebildet wird, wenn eine flache Platte in der x-Richtung abgetastet wird, wie in 5B dargestellt, kann die Abtastzeitdauer (z. B. 0,15 s bis 0,4 s) darüber hinaus durch Zusammenfassen der Gruppe von Pixeln in zwei oder mehreren Reihen, die das Bild I des Musterlichts gleichzeitig erfassen, zu einem Abschnitt eingestellt werden.
  • Wenn das Referenzlicht ein Punktlicht ist, so dass ein Bild I des Punktlichts auf einer Gruppe von vier benachbarten Pixeln auf der Lichtempfangsfläche 5 ausgebildet wird, wenn eine flache Platte in der x- und y-Richtung abgetastet wird, wie in 5C dargestellt, kann die Abtastzeitdauer (z. B. 0,2 s bis 0,4 s) darüber hinaus durch Zusammenfassen der Gruppe von vier benachbarten Pixeln, die das Bild I des Punktlichts gleichzeitig erfassen, zu einem Abschnitt eingestellt werden. Bei der auf diese Weise eingestellten Abtastzeitdauer kann es sich bei dem ereignisbasierten Bildsensor um den Zeitbereich handeln, der seit dem Start des Abtastens verstrichen ist, wohingegen die Abtastzeitdauer bei dem rahmenbasierten Bildsensor auch der Rahmenummernbereich sein kann, der seit dem Abtaststart verstrichen ist.
  • Unter erneuter Bezugnahme auf 3 kann die Vorrichtung 8 für dreidimensionale Messungen eine Projektionswinkelintervall-Einstelleinheit 12 aufweisen, die dazu ausgebildet ist, das Projektionswinkelintervall entsprechend der eingestellten Abtastzeitdauer einzustellen, wenn die Lichtprojektionseinheit 7 die Mehrzahl von Schlitzlichtern projiziert. Das Projektionswinkelintervall wird auf ein Winkelintervall eingestellt, das größer als der Abtastwinkel φ ist, in dem das Schlitzlicht in der eingestellten Abtastzeitdauer abtastet, wie in 4A und 4B beispielhaft dargestellt. Wenn die Mehrzahl von Schlitzlichtern projiziert wird, während das Projektionswinkelintervall kleiner als der Abtastwinkel φ gehalten wird, ist ein Verfahren zum Identifizieren erforderlich, welches Schlitzlicht empfangen worden ist, da jedes Pixel in dem Abschnitt, für den die Abtastzeitdauer des Abtastwinkels φ eingestellt ist, die Mehrzahl von Schlitzlichtern innerhalb dieser Abtastzeitdauer empfängt. Indem das Projektionswinkelintervall der Mehrzahl von Schlitzlichtern jedoch größer als der Abtastwinkel φ eingestellt wird, empfängt jedes Pixel in diesem Abschnitt nur ein Schlitzlicht innerhalb der Abtastzeitdauer, und daher ist es nicht notwendig, das Schlitzlicht zu identifizieren. Beim Projizieren einer Mehrzahl von Blockkaromusterlichtern, wie in 5B dargestellt, kann das Projektionswinkelintervall auf ähnliche Weise eingestellt werden.
  • Unabhängig davon, ob die Lichtempfangseinheit 3 den ereignisbasierten Bildsensor oder den rahmenbasierten Bildsensor aufweist, weist der Bildsensor der Lichtempfangseinheit 3 darüber hinaus vorzugsweise eine Funktion auf, nur Informationen in einem interessierenden Bereich auszugeben. In diesem Zusammenhang kann es sich bei dem interessierenden Bereich um einen allgemein bekannten interessierenden Bereich (ROI) handeln. Es ist jedoch zu beachten, dass ein „interessierender Bereich“, wie er hierin verwendet wird, nicht zwingend auf einen allgemeinen ROI beschränkt ist. Bei dem rahmenbasierten Bildsensor wird beispielsweise nur ein aufgenommenes Bild innerhalb des interessierenden Bereichs ausgegeben, und bei dem ereignisbasierten Bildsensor werden nur Ereignisinformationen ausgegeben, die in dem interessierenden Bereich auftreten. Wenn die Lichtempfangseinheit 3 eine Funktion aufweist, nur Informationen in dem interessierenden Bereich auszugeben, weist die Vorrichtung 8 für dreidimensionale Messungen vorzugsweise eine Einheit 14 zum Bewegen eines interessierenden Bereichs auf, die dazu ausgebildet ist, den interessierenden Bereich entsprechend dem Abtasten des Referenzlichts zu bewegen. Die Lichtempfangseinheit 3 bewegt den interessierenden Bereich auf Grundlage eines Eingangssignals (z. B. eines Bewegungsbefehls) von der Einheit 14 zum Bewegen eines interessierenden Bereichs. Beispielsweise bewegt sich der interessierende Bereich im Laufe der Zeit so, dass er einen Abschnitt (Pixel oder eine Gruppe von Pixeln) beinhaltet, für den die Abtastzeitdauer einschließlich eines bestimmten Zeitpunkts t während einer Messung eingestellt ist. Dieser Abschnitt (Pixel oder Pixelgruppen), für den die Abtastzeitdauer eingestellt ist, muss nicht vollständig mit dem interessierenden Bereich übereinstimmen. Auf diese Weise wird sichergestellt, dass der interessierende Bereich das Auftreten des Ereignisses oder die Ausgabe der maximalen Leuchtdichte nicht versäumt. Mit einem solchen interessierenden Bereich ist es möglich, die Pixel, bei denen das Ereignis auftritt, oder die Pixel, die die maximale Leuchtdichte ausgeben, zu beschränken, so dass die von der Lichtempfangseinheit 3 ausgegebene Datenmenge verringert werden kann. Danach führt die Einheit 9 zur Berechnung von dreidimensionalen Informationen die Entfernungsmessung auf Grundlage der in dem interessierenden Bereich beschränkten Ereignisinformationen durch oder führt die Entfernungsmessung durch Erfassen der Position und der Rahmennummer mit der maximalen Helligkeit jedes Pixels in dem beschränkten interessierenden Bereich durch. Dadurch kann die Messzeit erheblich verkürzt werden. Da darüber hinaus Rauschen, das durch das mehrfach reflektierte Referenzlicht usw. verursacht wird, ebenfalls durch den interessierenden Bereich beschränkt wird, können fehlerhafte Entfernungsmessungen aufgrund des Rauschens unterdrückt werden.
  • Unter erneuter Bezugnahme auf 3 werden die durch die Einheit 9 zur Berechnung von dreidimensionalen Informationen berechneten dreidimensionalen Informationen aus der Vorrichtung 8 für dreidimensionale Messungen nach außen ausgegeben. Die dreidimensionalen Informationen werden zum Beispiel durch eine externe Einrichtung 13 wie etwa eine Robotersteuereinheit, eine Fahrzeugsteuereinheit usw. zusätzlich zu einer sogenannten Bildverarbeitungsvorrichtung verwendet. Die externe Einrichtung 13 kann eine Bildverarbeitung auf Grundlage von dreidimensionalen Informationen durchführen, wobei der Einfluss von Rauschen, das durch mehrfach reflektiertes Referenzlicht usw. verursacht wird, verringert wird, und kann beispielsweise eine Positionssteuerung, Geschwindigkeitssteuerung, Beschleunigungssteuerung usw. durchführen.
  • Die Einheit 9 zur Berechnung von dreidimensionalen Informationen, die Zeitdauer-Einstelleinheit 10, die Projektionswinkelintervall-Einstelleinheit 12 und die Einheit 14 zum Bewegen eines interessierenden Bereichs, wie oben beschrieben, können als integrierte Schaltung wie zum Beispiel eine ASIC (application specific integrated circuit, anwendungsspezifische integrierte Schaltung) und ein FPGA (field-programmable gate array, feldprogrammierbares Gate-Array), implementiert werden oder können als Programm implementiert werden, das durch einen Prozessor wie zum Beispiel eine CPU (central processing unit, Zentraleinheit) und eine MPU (micro processing unit, Mikroverarbeitungseinheit) ausgeführt wird.
  • im Folgenden wird ein Betrieb der Vorrichtung 8 für dreidimensionale Messungen beschrieben. 6 ist ein Ablaufplan, der den Betrieb der Vorrichtung 8 für dreidimensionale Messungen darstellt. In Schritt S1 stellt die Zeitdauer-Einstelleinheit 10 die Abtastzeitdauer des Referenzlichts entsprechend dem Entfernungsmessbereich für jeden vorgegebenen Abschnitt aus der Mehrzahl von Pixeln ein, die die Lichtempfangseinheit 3 bilden. Zu dieser Zeit kann der Benutzer, wenn die Abtastzeitdauer des Referenzlichts geometrisch berechnet werden sollte, den Entfernungsmessbereich über eine (nicht dargestellte) Benutzerschnittstelleneinheit wie zum Beispiel eine Touchpanel-Anzeige oder eine Tastatur eingeben. Alternativ kann ein zuvor in einem Speicher gespeicherter Entfernungsmessbereich verwendet werden. Wenn eine Mehrzahl von Referenzlichtern projiziert werden sollte, wird das Projektionswinkelintervall in Schritt S2 entsprechend der Abtastzeitdauer eingestellt, die durch die Projektionswinkelintervall-Einstelleinheit 12 eingestellt ist.
  • Wenn die Projektion und das Abtasten des Referenzlichts in Schritt S3 gestartet werden, berechnet die Einheit 9 zur Berechnung von dreidimensionalen Informationen in Schritt S4 die dreidimensionalen Informationen des Objekts durch Triangulation auf Grundlage der Informationen der Lichtempfangseinheit 3 in der eingestellten Abtastzeitdauer. Wenn es sich bei dem Bildsensor der Lichtempfangseinheit 3 um den ereignisbasierten Bildsensor handelt, werden die dreidimensionalen Informationen des Objekts auf Grundlage der Position, des Zeitpunkts und der Polarität des Pixels berechnet, bei dem das Ereignis innerhalb der eingestellten Abtastzeitdauer aufgetreten ist. Wenn es sich bei dem Bildsensor der Lichtempfangseinheit 3 um den rahmenbasierten Bildsensor handelt, werden die Position und die Rahmennummer mit der maximalen Helligkeit jedes Pixels aus der Mehrzahl von Rahmenbildern innerhalb des eingestellten Rahmennummernbereichs erfasst, und die dreidimensionalen Informationen des Objekts werden auf Grundlage der Position und der Rahmennummer des Pixels berechnet. Wenn die dreidimensionalen Informationen in Schritt S5 nach außen ausgegeben werden, endet der Prozess.
  • In diesem Ablaufplan werden die Schritte S1 bis S5 als eine Reihe von Prozessen beschrieben, wobei die Schritte S1 und S2 durchgeführt werden können, wenn die Vorrichtung für dreidimensionale Messungen montiert oder kalibriert wird, usw., und die Schritte S3 bis S5 während einer Messung durchgeführt werden können. Außerdem ist zu beachten, dass die Schritte S2 und S5 nicht unbedingt wesentliche Schritte sind.
  • Gemäß der Vorrichtung 8 für dreidimensionale Messungen der ersten Ausführungsform wird das Referenzlicht, das direkt durch den spezifischen Bereich des Objekts W reflektiert wird, immer innerhalb der Abtastzeitdauer empfangen, die dem Entfernungsmessbereich entspricht. Daher kann der Einfluss von Rauschen wie zum Beispiel eines mehrfach reflektierten Referenzlichts verringert werden, indem die Entfernungsmessung unter Ausschluss der Informationen der Lichtempfangseinheit 3 außerhalb der eingestellten Abtastzeitdauer durchgeführt wird.
  • Im Folgenden wird eine Vorrichtung 8 für dreidimensionale Messungen gemäß einer zweiten Ausführungsform beschrieben. Es ist zu beachten, dass die Beschreibung derselben Konfiguration und desselben Betriebs wie bei der Vorrichtung 8 für dreidimensionale Messungen der ersten Ausführungsform weggelassen wird. 7A ist eine Draufsicht auf die Vorrichtung 8 für dreidimensionale Messungen, die den interessierenden Bereich der ersten Ausführungsform darstellt, und 7B ist eine Draufsicht auf die Vorrichtung 8 für dreidimensionale Messungen, die den interessierenden Bereich der zweiten Ausführungsform darstellt. Bei der Vorrichtung 8 für dreidimensionale Messungen der ersten oder zweiten Ausführungsform bewegt sich der interessierende Bereich, während das Referenzlicht L den Projektionswinkelbereich θmax des gesamten Entfernungsmessbereichs mit der Abtastgeschwindigkeit ω abtastet, als Reaktion auf das Abtasten (oder durch Folgen) des Referenzlichts L in der Bewegungsrichtung d. Die Vorrichtungen 8 für dreidimensionale Messungen der ersten Ausführungsform und der zweiten Ausführungsform unterscheiden sich jedoch in den folgenden Punkten.
  • Wie in 7A dargestellt, wird bei der Vorrichtung 8 für dreidimensionale Messungen der ersten Ausführungsform ein Pixel 11 fokussiert, und es wird angenommen, dass die Zeit des Referenzlichts L zum Ausbilden des Bildes auf dem Pixel 11 innerhalb der Abtastzeitdauer des Referenzlichts L zwischen einem Zeitpunkt t1, wenn das Licht auf einen Punkt R auf der am weitesten entfernten Seite des Entfernungsmessbereichs gestrahlt wird, und einem Zeitpunkt t2, wenn das Licht auf einen Punkt Q auf der nächstgelegenen Seite des Entfernungsmessbereichs gestrahlt wird, liegen sollte (d. h., der Abtastzeitdauer, die dem Entfernungsmessbereich des Referenzlichts L entspricht). In dieser Annahme bewegt sich der interessierende Bereich im Laufe der Zeit so, dass er den Abschnitt beinhaltet, für den die Abtastzeitdauer einschließlich einer bestimmten Zeit während einer Messung eingestellt ist.
  • Im Gegensatz dazu wird, wie in 7B dargestellt, bei der Vorrichtung 8 für dreidimensionale Messungen der zweiten Ausführungsform ein Zeitpunkt t fokussiert, und es wird angenommen, dass das Bild des Referenzlichts L, das zu dem bestimmten Zeitpunkt t während einer Messung gestrahlt wird, innerhalb eines Abbildungsbereichs zwischen einem Abbildungspunkt (z. B. dem Pixel 11), wenn das Referenzlicht an einem Punkt Q auf der nächstgelegenen Seite des Entfernungsmessbereichs reflektiert wird, und einem Abbildungspunkt (z. B. dem Pixel 15), wenn das Referenzlicht an einem Punkt R auf der am weitesten entfernten Seite des Entfernungsmessbereichs reflektiert wird, (d. h., des Abbildungsbereichs des Referenzlichts L gemäß dem Entfernungsmessbereich) liegen sollte. In dieser Annahme bewegt sich der interessierende Bereich im Laufe der Zeit so, dass er den Abbildungsbereich des Referenzlichts L, der dem Entfernungsmessbereich entspricht, zu dem bestimmten Zeitpunkt t während einer Messung beinhaltet (z. B. die Gruppe von Pixeln von dem Pixel 11 bis zu dem Pixel 15).
  • 8 ist eine graphische Blockdarstellung der Vorrichtung 8 für dreidimensionale Messungen der zweiten Ausführungsform. In der Vorrichtung 8 für dreidimensionale Messungen sowohl der ersten als auch der zweiten Ausführungsform bewegt sich der interessierende Bereich synchron mit dem Abtasten des Referenzlichts. In diesem Zusammenhang überträgt die Einheit 14 zum Bewegen eines interessierenden Bereichs bei der ersten Ausführungsform einen Bewegungsbefehl zum Bewegen eines interessierenden Bereichs an die Lichtempfangseinheit 3, so dass der interessierende Bereich den Abschnitt (z. B. das Pixel 11 oder eine Gruppe von Pixeln in der Nähe des Pixels 11) beinhaltet, für den die Abtastzeitdauer des Referenzlichts L entsprechend dem Entfernungsmessbereich eingestellt ist. Demgegenüber weist die Vorrichtung 8 für dreidimensionale Messungen bei der zweiten Ausführungsform eine Einheit 16 zum Einstellen eines interessierenden Bereichs auf, die dazu ausgebildet ist, den interessierenden Bereich zuvor einzustellen, und die Einheit 16 zum Einstellen eines interessierenden Bereichs stellt den interessierenden Bereich so ein, dass er den Abbildungsbereich des Referenzlichts, der dem Entfernungsmessbereich entspricht, zu dem bestimmten Zeitpunkt t während einer Messung beinhaltet, und die Lichtempfangseinheit 3 selbst bewegt den eingestellten interessierenden Bereich auf Grundlage eines Eingangssignals (z. B. eines Auslösesignals) von der Lichtprojektionseinheit 7. Die Einheit 16 zum Einstellen eines interessierenden Bereichs stellt eine Ausgangsposition, eine Größe (eine Breite und eine Höhe), eine Bewegungsrichtung und/oder eine Bewegungsgeschwindigkeit des interessierenden Bereichs ein, und anschließend lokalisiert die Lichtempfangseinheit 3 den interessierenden Bereich, der die eingestellte Größe aufweist, an der Ausgangsposition und bewegt den lokalisierten interessierenden Bereich von der Ausgangsposition mit einer vorgegebenen Geschwindigkeit (z. B. mit einer konstanten Geschwindigkeit) in eine vorgegebene Richtung. Die Lichtempfangseinheit 3 gibt vorzugsweise das Eingangssignal (z. B. das Auslösesignal) ein, wenn der Projektionswinkel des Referenzlichts L einen vorgegebenen Winkel erreicht, und bewegt den interessierenden Bereich. Beim Bewegen des interessierenden Bereichs bewegt die Lichtempfangseinheit 3 den interessierenden Bereich vorzugsweise synchron mit einem Taktsignal des Bildsensors (oder der Lichtempfangsfläche 5).
  • 9A ist eine graphische Bilddarstellung, die ein Beispiel für ein Einstellen des interessierenden Bereichs zeigt. Die Ausgangsposition p0, die Größe (die Breite w und die Höhe h), die Bewegungsrichtung d und die Bewegungsgeschwindigkeit v des interessierenden Bereichs werden auf Grundlage der Konstruktionsinformationen der Vorrichtung 8 für dreidimensionale Messungen eingestellt. Zu den Konstruktionsinformationen der Vorrichtung 8 für dreidimensionale Messungen zählen beispielsweise die Anordnungen der Lichtprojektionseinheit 7 und der Lichtempfangseinheit 3 (z. B. ihre jeweiligen Positionen und Orientierungen), der Entfernungsmessbereich, die Abtastrichtung des Referenzlichts L, die Abtastgeschwindigkeit des Referenzlichts L, der Projektionswinkelbereich des Lichts L und die Taktfrequenz des Bildsensors usw.
  • Die Einheit 16 zum Einstellen eines interessierenden Bereichs gewinnt beim Einstellen des interessierenden Bereichs zunächst den Abbildungsbereich i des Referenzlichts L. Die Einheit 16 zum Einstellen eines interessierenden Bereichs kann die Konstruktionsinformationen der Vorrichtung 8 für dreidimensionale Messungen (die Anordnungen der Lichtprojektionseinheit 7 und der Lichtempfangseinheit 3 (ihre jeweiligen Positionen und Stellungen) und den Entfernungsmessbereich usw.) über eine Benutzerschnittstelleneinheit wie zum Beispiel eine Touchpanel-Anzeige oder eine Maus (nicht dargestellt) eingeben und den Abbildungsbereich i des Referenzlichts L auf Grundlage der Konstruktionsinformationen geometrisch berechnen. Alternativ kann die Einheit 16 zum Einstellen eines interessierenden Bereichs auch eine Funktion zum Abtasten des Referenzlichts L und zum Berechnen des Abbildungsbereichs i des Referenzlichts L aufweisen. Im letzteren Fall wird beispielsweise, unter Bezugnahme auf 7B, eine flache Platte auf der nächstgelegenen Seite des Entfernungsmessbereichs angeordnet, das Referenzlicht L abgetastet und die Position und der Zeitpunkt des Abbildungspunkts (z. B. des Pixels 11), an dem das Referenzlicht L abgebildet wird, aufgezeichnet. Darüber hinaus wird eine flache Platte auf der am weitesten entfernten Seite des Entfernungsmessbereichs angeordnet, das Referenzlicht L abgetastet und die Position und der Zeitpunkt des Abbildungspunkts (z. B. des Pixels 15), an dem das Referenzlicht L abgebildet wird, aufgezeichnet. Der Abbildungsbereich i des Referenzlichts L, der dem Entfernungsmessbereich entspricht, nimmt zum Ende der Lichtempfangsfläche 5 hin zu und ist während des Abtastens des Referenzlichts L nicht konstant. Daher wird bevorzugt, dass die Einheit 16 zum Einstellen eines interessierenden Bereichs die Anzahl der Pixel von dem Abbildungspunkt des Referenzlichts L auf der nächstgelegenen Seite des Entfernungsmessbereichs (z. B. dem Pixel 11) bis zu dem Abbildungspunkt des Referenzlichts L auf der am weitesten entfernten Seite des Entfernungsmessbereichs (z. B. dem Pixel 15) für jeden Zeitpunkt berechnet und den Maximalwert der Anzahl von Pixeln über den gesamten Entfernungsmessbereich als Abbildungsbereich i des Referenzlichts L berechnet.
  • Die Einheit 16 zum Einstellen eines interessierenden Bereichs stellt die Breite w des interessierenden Bereichs auf Grundlage des Abbildungsbereichs i des Referenzlichts L ein. Die Breite w des interessierenden Bereichs bedeutet die Größe des interessierenden Bereichs in der Abtastrichtung des Referenzlichts L. Der Standardwert der Breite w des interessierenden Bereichs kann der Abbildungsbereich i des Referenzlichts L (z. B. die maximale Anzahl von Pixeln von dem Pixel 11 bis zu dem Pixel 15 in dem gesamten Entfernungsmessbereich) selbst sein. Da die Bewegungsgeschwindigkeit des auf der Lichtempfangsfläche 5 ausgebildeten Bildes des Referenzlichts L selbst dann nicht konstant ist, wenn die Winkelgeschwindigkeit des Referenzlichts L konstant ist, wird vorzugsweise ein Spielraum für die Breite w des interessierenden Bereichs vorgesehen. Beispielsweise kann die Einheit 16 zum Einstellen eines interessierenden Bereichs als Breite w des interessierenden Bereichs eine Größe einstellen, die durch Hinzufügen eines vorgegebenen Spielraums m zu dem Abbildungsbereich i des Referenzlichts L gewonnen wird. Der Breitenspielraum m des interessierenden Bereichs kann eine vorgegebene Konstante sein.
  • Die Einheit 16 zum Einstellen eines interessierenden Bereichs stellt die Höhe h des interessierenden Bereichs auf Grundlage der Größe der Lichtempfangsfläche 5 ein. Die Höhe h des interessierenden Bereichs bedeutet die Größe des interessierenden Bereichs in der Richtung orthogonal zu der Abtastrichtung des Referenzlichts L. Der Standardwert der Höhe h des interessierenden Bereichs kann die Anzahl von Pixeln auf der Lichtempfangsfläche 5 in der Richtung orthogonal zu der Abtastrichtung des Referenzlichts L sein. Die Höhe h des interessierenden Bereichs kann über die Benutzerschnittstelleneinheit usw. durch einen beliebigen Zahlenwert benannt und eingestellt werden, der gleich wie oder kleiner als die Anzahl von Pixeln auf der Lichtempfangsfläche 5 in der Richtung orthogonal zu der Abtastrichtung des Referenzlichts L ist. Beim Messen der dreidimensionalen Form des Objekts, das in einem bekannten Bereich auf der Lichtempfangsfläche 5 abgebildet wird, kann die Höhe h des interessierenden Bereichs beispielsweise nur auf den Bereich beschränkt werden, in dem sich das Objekt befindet, wodurch der Einfluss von Rauschen verringert wird.
  • Die Einheit 16 zum Einstellen eines interessierenden Bereichs stellt die Bewegungsrichtung d des interessierenden Bereichs auf Grundlage der Abtastrichtung des Referenzlichts L ein. Die Einheit 16 zum Einstellen eines interessierenden Bereichs kann die Bewegungsrichtung d des interessierenden Bereichs über die Benutzerschnittstelleneinheit usw. beliebig benennen und einstellen. Alternativ kann die Einheit 16 zum Einstellen eines interessierenden Bereichs die Abtastrichtung des Referenzlichts L bestimmen, wenn sie die oben genannte Funktion zum Abtasten des Referenzlichts L und zum Berechnen des Abbildungsbereichs i des Referenzlichts L ausführt, und kann die Abtastrichtung des Referenzlichts L automatisch als Bewegungsrichtung d des interessierenden Bereichs einstellen. In dem Beispiel von 9A ist das Referenzlicht (Schlitzlicht) so angeordnet, dass es auf der Lichtempfangsfläche 5 in der horizontalen Richtung abgebildet wird, und die Bewegungsrichtung d des interessierenden Bereichs ist als Aufwärts- oder Abwärtsrichtung eingestellt. Wenn demgegenüber das Referenzlicht (Schlitzlicht) so angeordnet ist, dass es auf der Lichtempfangsfläche 5 in der vertikalen Richtung abgebildet wird, ist die Bewegungsrichtung d des interessierenden Bereichs als Links- oder Rechtsrichtung eingestellt.
  • Die Einheit 16 zum Einstellen eines interessierenden Bereichs stellt die Ausgangsposition p0 des interessierenden Bereichs mithilfe von Koordinatenwerten eines orthogonalen Koordinatensystems (z. B. eines Kamerakoordinatensystems (oder eines dargestellten xy-Koordinatensystems)) ein, das auf derselben Ebene wie die Lichtempfangsfläche 5 fixiert ist. Wenn der interessierende Bereich beispielsweise rechteckig ist, kann die Ausgangsposition p0 des interessierenden Bereichs der Koordinatenwert der oberen linken Ecke des Rechtecks sein. Die Einheit 16 zum Einstellen eines interessierenden Bereichs kann die Ausgangsposition p0 des interessierenden Bereichs automatisch auf Grundlage der Abtastrichtung des Referenzlichts L (oder der Bewegungsrichtung d des interessierenden Bereichs) und der Größe (der Breite und der Höhe) des interessierenden Bereichs einstellen. In dem Beispiel von 9A ist das Referenzlicht (Schlitzlicht) so angeordnet, dass es auf der Lichtempfangsfläche 5 in der horizontalen Richtung abgebildet wird, und das Referenzlicht L tastet in der Aufwärts- oder Abwärtsrichtung auf der Lichtempfangsfläche 5 ab. Daher wird bevorzugt, dass die Einheit 16 zum Einstellen eines interessierenden Bereichs automatisch die Position der oberen linken Ecke des interessierenden Bereichs als Ausgangsposition p0 des interessierenden Bereichs einstellt, wobei die Mittellinie des interessierenden Bereichs die niedrigste oder höchste Pixelreihe der Lichtempfangsfläche 5 ist. Wenn das Referenzlicht L (Schlitzlicht) so angeordnet ist, dass es auf der Lichtempfangsfläche 5 in der vertikalen Richtung abgebildet wird, und das Referenzlicht L in der Rechts- oder Linksrichtung auf der Lichtempfangsfläche 5 abtastet, wird außerdem bevorzugt, dass die Einheit 16 zum Einstellen eines interessierenden Bereichs die Position der oberen linken Ecke des interessierenden Bereichs als die Ausgangsposition p0 des interessierenden Bereichs einstellt, wobei die Mittellinie des interessierenden Bereichs die ganz linke oder ganz rechte Pixelreihe der Lichtempfangsfläche 5 ist. Alternativ kann die Einheit 16 zum Einstellen eines interessierenden Bereichs die Ausgangsposition p0 des interessierenden Bereichs über die Benutzerschnittstelleneinheit usw. beliebig benennen und einstellen. Wenn das Referenzlicht L (Schlitzlicht) zum Beispiel so angeordnet ist, dass es auf der Lichtempfangsfläche 5 in der horizontalen Richtung abgebildet wird, wenn das Referenzlicht L auf der Lichtempfangsfläche 5 in der Abwärtsrichtung abtastet, und wenn die dreidimensionale Form des Objekts erfasst wird, das in einem bekannten Gebiet der Lichtempfangsfläche 5 abgebildet wird, wird bevorzugt, dass die Einheit 16 zum Einstellen eines interessierenden Bereichs die Position der oberen linken Ecke des interessierenden Bereichs automatisch als die Ausgangsposition p0 des interessierenden Bereichs einstellt, wobei die Mittellinie des interessierenden Bereichs die höchste Pixelreihe des Gebiets ist, wo sich das Werkstück befindet. Dadurch kann das Abtasten des interessierenden Bereichs auf das Gebiet beschränkt werden, in dem sich das Objekt befindet, und der Einfluss von Rauschen kann verringert werden.
  • Die Einheit 16 zum Einstellen eines interessierenden Bereichs stellt die Bewegungsgeschwindigkeit v des interessierenden Bereichs auf Grundlage der Abtastgeschwindigkeit ω des Referenzlichts L ein. Beim Bewegen des interessierenden Bereichs synchron mit dem Taktsignal des Bildsensors wird bevorzugt, dass die Einheit 16 zum Einstellen eines interessierenden Bereichs auf Grundlage der Bewegungsgeschwindigkeit v des Referenzlichts L berechnet, wie viele Takte der Betriebstakte des Bildsensors der Zeitlänge entsprechen, die das Referenzlicht L benötigt, um sich auf der Lichtempfangsfläche 5 um ein Pixel zu bewegen, und dass die Lichtempfangseinheit 3 den interessierenden Bereich um ein Pixel je Anzahl von Takten bewegt, die das Referenzlicht L benötigt, um sich auf der Lichtempfangsfläche 5 um ein Pixel zu bewegen. Beispielsweise entspricht die Zeitlänge t, die das Referenzlicht L benötigt, um den gesamten Entfernungsmessbereich abzutasten, (dem Projektionswinkelbereich)/(die Abtastgeschwindigkeit) (d. h., t = θmax/ω). In der Annahme, dass die Anzahl von Pixeln auf der Lichtempfangsfläche 5 in der Abtastrichtung n ist, beträgt daher die Zeitlänge Δt, die das Bild des Referenzlichts L benötigt, um sich auf der Lichtempfangsfläche 5 um ein Pixel zu bewegen, etwa t/n (Δt ≈ t/n). Mit anderen Worten, wenn die Taktfrequenz des Bildsensors F ist, ist die Anzahl von Takten c, die das Referenzlicht L benötigt, um sich auf der Lichtempfangsfläche 5 um ein Pixel zu bewegen, gleich F/v (c = F/v). Dann verschiebt die Lichtempfangseinheit 3 den interessierenden Bereich um ein Pixel je Taktanzahl c, die das Referenzlicht L benötigt, um sich auf der Lichtempfangsfläche 5 um ein Pixel zu bewegen. Insofern ist es durch Bewegen des interessierenden Bereichs synchron mit dem Taktsignal des Bildsensors möglich, den interessierenden Bereich mit einer einfacheren Konfiguration zu bewegen, als wenn die Lichtempfangseinheit 3 ein externes Signal als Auslösesignal eingibt.
  • Die Lichtempfangseinheit 3 lokalisiert den interessierenden Bereich, der die eingestellte Größe (die Breite w und die Höhe h) aufweist, an der Ausgangsposition p0 auf Grundlage des Eingangssignals (z. B. des Auslösesignals) von der Lichtprojektionseinheit 7 und bewegt den interessierenden Bereich mit der Bewegungsgeschwindigkeit v in der Bewegungsrichtung d. Der interessierende Bereich bewegt sich im Laufe der Zeit von der Ausgangsposition p0 zu der Position p1. Die Einheit 10 zur Berechnung von dreidimensionalen Informationen berechnet dreidimensionale Informationen des Objekts durch Triangulation auf Grundlage der Informationen (der Ereignisinformationen oder des Leuchtdichtebildes) der Lichtempfangseinheit 3 in dem interessierenden Bereich. Die Einheit 10 zum Berechnen von dreidimensionalen Informationen kann den Einfluss von Rauschen, das durch das mehrfach reflektierte Referenzlicht usw. verursacht wird, verringern, indem sie die Entfernungsmessung unter Ausschluss von Informationen der Lichtempfangseinheit 3 außerhalb des interessierenden Bereichs durchführt.
  • 9B ist eine graphische Bilddarstellung, die eine Modifizierung des Einstellens des interessierenden Bereich zeigt. Wenn die Lichtprojektionseinheit 7 eine Mehrzahl von Referenzlichtern L1 und L2 projiziert und gleichzeitig ein vorgegebenes Projektionswinkelintervall beibehält, wird bevorzugt, dass die Einheit 16 zum Einstellen eines interessierenden Bereichs die Ausgangspositionen p10 und p20 der Mehrzahl von interessierenden Bereichen 1 und 2 auf Grundlage des Projektionswinkelintervalls getrennt einstellt. Die anderen Einstellungen als die Ausgangspositionen p10 und p20 der Mehrzahl von interessierenden Bereichen 1 und 2 (wie zum Beispiel die Größe (die Breite w und die Höhe h), die Bewegungsrichtung d und die Bewegungsgeschwindigkeit v) können miteinander übereinstimmen. Die Lichtempfangseinheit 3 gibt das Eingangssignal (z. B. das Auslösesignal) von der Lichtprojektionseinheit 7 ein, wenn die Projektionswinkel der Referenzlichter L1 und L2 jeweilige vorgegebene Winkel erreichen, lokalisiert die interessierenden Bereiche 1 und 2, die jeweils die eingestellte Größe (die Breite w und die Höhe h) aufweisen, an den Ausgangspositionen p10 bzw. p20 und bewegt die Bereiche mit der Bewegungsgeschwindigkeit v in der Bewegungsrichtung d. Anschließend gibt die Lichtempfangseinheit 3, ohne darauf beschränkt zu sein, nur Logikprodukt(UND)-Gebietsinformationen (die Ereignisinformationen oder das Leuchtdichtebild) zwischen dem interessierenden Bereich und dem Abschnitt aus, für den die bei der ersten Ausführungsform beschriebene Abtastzeitdauer des Referenzlichts eingestellt ist. Die Einheit 9 zum Berechnen von dreidimensionalen Informationen berechnet die dreidimensionalen Informationen des Objekts durch Triangulation auf Grundlage der Informationen.
  • Darüber hinaus kann die Einheit 16 zum Einstellen eines interessierenden Bereichs eine Funktion zum Einstellen eines anbieterseitigen interessierenden Bereichs, der durch einen Anbieter der Vorrichtung 8 für dreidimensionale Messungen eingestellt wird, und eines benutzerseitigen interessierenden Bereichs aufweisen, der durch einen Benutzer der Vorrichtung 8 für dreidimensionale Messungen eingestellt wird, wenngleich dies nicht dargestellt wird. Die Einheit 16 zum Einstellen eines interessierenden Bereichs benennt den anbieterseitigen interessierenden Bereich und den benutzerseitigen interessierenden Bereich über die Benutzerschnittstelleneinheit usw. und stellt diese darüber ein. In diesem Fall kann die Einheit 16 zum Einstellen eines interessierenden Bereichs einen Logikprodukt(UND)-Bereich des anbieterseitigen interessierenden Bereichs und des benutzerseitigen interessierenden Bereichs als interessierenden Bereich zusätzlich zu dem Abschnitt einstellen, für den die Abtastzeitdauer des Referenzlichts eingestellt wird.
  • Gemäß der Vorrichtung 8 für dreidimensionale Messungen der zweiten Ausführungsform wird die Entfernungsmessung unter Ausschluss der Informationen der Lichtempfangseinheit 3 außerhalb des interessierenden Bereichs durchgeführt, wodurch der Einfluss von Rauschen, das durch mehrfach reflektiertes Referenzlicht usw. verursacht wird, verringert werden kann. Da die Lichtempfangseinheit 3 (d. h. der Bildsensor) die Informationen (die Ereignisinformationen oder die Leuchtdichteinformationen) nur in dem interessierenden Bereich ausgibt, wird im Vergleich mit dem Fall, in dem die von dem Bildsensor ausgegebenen Informationen nur durch die Abtastzeitdauer des Referenzlichts beschränkt sind, darüber hinaus die Verschlechterung der Verarbeitungszeit des Bildsensors aufgrund von übermäßigem Rauschen verringert. Im Besonderen gibt der ereignisbasierte Bildsensor nur Ereignisinformationen aus, so dass er von vornherein eine niedrige Latenzzeit aufweist, durch Ausgeben der Ereignisinformationen nur in dem interessierenden Bereich kann die Latenzzeit (Verzögerungszeit) des Bildsensors aufgrund zu vieler Ereignisse jedoch verringert werden, und die Vorteile des ereignisbasierten Bildsensors können erzielt oder aufrechterhalten werden.
  • Die Programme, die durch den Prozessor und/oder die integrierte Schaltung ausgeführt werden, die oben beschrieben worden sind, können auf einem durch einen Computer lesbaren, nichttransitorischen Aufzeichnungsmedium wie zum Beispiel einer CD-ROM aufgezeichnet und bereitgestellt werden oder können drahtgebunden oder drahtlos von einer Server-Vorrichtung in einem WAN (Wide Area Network, Weitverkehrsnetzwerk) oder LAN (Local Area Network, einem lokalen Netzwerk) verteilt und bereitgestellt werden.
  • Wenngleich hierin die verschiedenen Ausführungsformen beschrieben werden, ist zu beachten, dass die vorliegende Erfindung nicht auf die obigen Ausführungsformen beschränkt ist und verschiedene Modifizierungen innerhalb des Umfangs der Ansprüche vorgenommen werden können.
  • Bezugszeichenliste
  • 1
    Stereokamera
    2
    linke Lichtempfangseinheit
    3
    rechte Lichtempfangseinheit (Lichtempfangseinheit)
    4
    linke Lichtempfangsfläche
    5
    rechte Lichtempfangsfläche (Lichtempfangsfläche)
    6
    Lichtschnittsystem
    7
    Lichtprojektionseinheit
    8
    Vorrichtung für dreidimensionale Messungen
    9
    Einheit zur Berechnung von dreidimensionalen Informationen
    10
    Zeitdauer-Einstelleinheit
    11
    Pixel
    12
    Projektionswinkelintervall-Einstelleinheit
    13
    externe Einrichtung
    14
    Einheit zum Bewegen eines interessierenden Bereichs
    B
    Basislinienlänge
    D
    Ungleichheit
    f
    Brennweite
    I
    Bild des Referenzlichts
    L
    Referenzlicht
    P
    Punkt des Objekts
    Q
    Abbildungspunkt auf der nächstgelegenen Seite des Entfernungsmessbereichs
    R
    Abbildungspunkt auf der am weitesten entfernten Seite des Entfernungsmessbereichs
    QR
    Schnittlinie der Sichtlinie des Pixels und des Entfernungsmessbereichs
    S
    Fläche des Objekts
    V
    Sichtlinie
    W
    Objekt
    Z
    Entfernung zu dem Punkt P des Objekts
    θ
    Projektionswinkel
    θmax
    Projektionswinkelbereich
    φ
    Abtastwinkel
    ω
    Abtastgeschwindigkeit
    I
    Abbildungsbereich des Referenzlichts
    p0, p10, p20
    Ausgangsposition des interessierenden Bereichs
    w
    Breite des interessierenden Bereichs
    m
    Spielraum der Breite des interessierenden Bereichs
    h
    Höhe des interessierenden Bereichs
    d
    Bewegungsrichtung des interessierenden Bereichs
    v
    Bewegungsgeschwindigkeit des interessierenden Bereichs
    F
    Taktfrequenz des Bildsensors
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000088539 A [0016]
    • JP 2006333493 A [0016]
    • JP 2003329419 A [0016]
    • JP 2013148353 A [0016]
    • JP 1999(H11)033275 A [0016]
    • JP 2001227923 A [0016]
    • JP 2012141964 A [0016]
    • JP 2014002744 A [0016]
    • JP 2018516395 A [0016]
    • JP 1995(H07)260444 A [0016]
    • JP 2020136958 A [0016]
    • JP 2021032763 A [0016]

Claims (18)

  1. Vorrichtung für dreidimensionale Messungen, die aufweist: eine Projektionseinheit, die dazu ausgebildet ist, ein Referenzlicht auf ein Objekt zu projizieren, während sie das Objekt mit dem Referenzlicht abtastet; eine Lichtempfangseinheit, die dazu ausgebildet ist, das durch das Objekt reflektierte Referenzlicht zu empfangen; eine Zeitdauer-Einstelleinheit, die dazu ausgebildet ist, eine Abtastzeitdauer des Referenzlichts gemäß einem Entfernungsmessbereich für jeden vorgegebenen Abschnitt der Lichtempfangseinheit einzustellen; und eine Einheit zur Berechnung von dreidimensionalen Informationen, die dazu ausgebildet ist, dreidimensionale Informationen des Objekts mithilfe von Triangulation auf Grundlage von Informationen der Lichtempfangseinheit in der eingestellten Abtastzeitdauer zu berechnen.
  2. Vorrichtung für dreidimensionale Messungen nach Anspruch 1, wobei die Lichtempfangseinheit eine Mehrzahl von Pixeln aufweist, ein Ereignis für jedes der Pixel überwacht und mindestens eine Position, einen Zeitpunkt und eine Polarität des Pixels, bei dem das Ereignis aufgetreten ist, als die Informationen ausgibt.
  3. Vorrichtung für dreidimensionale Messungen nach Anspruch 1 oder 2, wobei die Projektionseinheit eine Mehrzahl der Referenzlichter projiziert und gleichzeitig ein vorgegebenes Projektionswinkelintervall beibehält.
  4. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 1 bis 3, wobei die Abtastzeitdauer eine Zeitdauer ist, in der das Referenzlicht eine Schnittlinie einer Blickrichtung des Pixels der Lichtempfangseinheit und des Entfernungsmessbereichs abtastet.
  5. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 1 bis 4, wobei die Abtastzeitdauer für jedes Pixel mit einem Pixel der Lichtempfangseinheit als ein Abschnitt eingestellt wird oder für jeden Abschnitt mit einer Gruppe von Pixeln in der Umgebung der Lichtempfangseinheit als ein Abschnitt eingestellt wird.
  6. Vorrichtung für dreidimensionale Messungen nach Anspruch 3, die ferner eine Projektionswinkelintervall-Einstelleinheit aufweist, die dazu ausgebildet ist, das Projektionswinkelintervall entsprechend der eingestellten Abtastzeitdauer einzustellen.
  7. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 1 bis 6, wobei die Lichtempfangseinheit eine Funktion aufweist, nur die Informationen in einem interessierenden Bereich aus der Mehrzahl von Pixeln auszugeben, und sich der interessierende Bereich im Laufe der Zeit so bewegt, dass er einen Abschnitt beinhaltet, für den die Abtastzeitdauer einschließlich einer bestimmten Zeit während einer Messung eingestellt ist.
  8. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 1 bis 6, wobei die Lichtempfangseinheit eine Funktion aufweist, nur die Informationen in einem interessierenden Bereich aus der Mehrzahl von Pixeln auszugeben, und sich der interessierende Bereich im Laufe der Zeit so bewegt, dass er einen Abbildungsbereich des Referenzlichts, der dem Entfernungsmessbereich entspricht, zu einem bestimmten Zeitpunkt während einer Messung beinhaltet.
  9. Vorrichtung für dreidimensionale Messungen, die aufweist: eine Projektionseinheit, die dazu ausgebildet ist, ein Referenzlicht auf ein Objekt zu projizieren, während sie das Objekt mit dem Referenzlicht abtastet; eine Lichtempfangseinheit, die dazu ausgebildet ist, das durch das Objekt reflektierte Referenzlicht zu empfangen, nur Informationen in einem interessierenden Bereich auszugeben und den interessierenden Bereich entsprechend dem Abtasten des Referenzlichts zu bewegen; und eine Einheit zur Berechnung von dreidimensionalen Informationen, die dazu ausgebildet ist, dreidimensionale Informationen des Objekts mithilfe von Triangulation auf Grundlage von Informationen der Lichtempfangseinheit in dem interessierenden Bereich zu berechnen.
  10. Vorrichtung für dreidimensionale Messungen nach Anspruch 9, wobei die Lichtempfangseinheit eine Mehrzahl von Pixeln aufweist, ein Ereignis für jedes der Pixel überwacht und mindestens eine Position, einen Zeitpunkt und eine Polarität des Pixels, bei dem das Ereignis aufgetreten ist, als die Informationen ausgibt.
  11. Vorrichtung für dreidimensionale Messungen nach Anspruch 1 oder 10, wobei sich der interessierende Bereich im Laufe der Zeit so bewegt, dass er einen Abbildungsbereich des Referenzlichts, der einem Entfernungsmessbereich entspricht, zu einem bestimmten Zeitpunkt während einer Messung beinhaltet.
  12. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 9 bis 11, die ferner eine Einheit zum Einstellen eines interessierenden Bereichs aufweist, die dazu ausgebildet ist, eine Ausgangsposition, eine Größe, eine Bewegungsrichtung und/oder eine Bewegungsgeschwindigkeit des interessierenden Bereichs einzustellen.
  13. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 9 bis 12, wobei eine Größe des interessierenden Bereichs auf Grundlage eines Abbildungsbereichs des Referenzlichts eingestellt wird, der einem Entfernungsmessbereich entspricht.
  14. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 9 bis 13, wobei eine Bewegungsrichtung des interessierenden Bereichs auf Grundlage einer Abtastrichtung des Referenzlichts eingestellt wird.
  15. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 9 bis 14, wobei eine Bewegungsgeschwindigkeit des interessierenden Bereichs auf Grundlage einer Abtastgeschwindigkeit des Referenzlichts eingestellt wird.
  16. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 9 bis 15, wobei die Lichtempfangseinheit den interessierenden Bereich, der eine eingestellte Größe aufweist, auf Grundlage eines Eingangssignals von einer Ausgangsposition mit einer vorgegebenen Geschwindigkeit in eine vorgegebene Richtung bewegt.
  17. Vorrichtung für dreidimensionale Messungen nach Anspruch 16, wobei die Lichtempfangseinheit das Eingangssignal eingibt, wenn ein Projektionswinkel des Referenzlichts zu einem vorgegebenen Winkel wird.
  18. Vorrichtung für dreidimensionale Messungen nach einem beliebigen der Ansprüche 9 bis 17, wobei die Lichtempfangseinheit den interessierenden Bereich synchron mit einem Taktsignal der Lichtempfangseinheit bewegt.
DE112021004793.0T 2020-09-07 2021-08-31 Vorrichtung für dreidimensionale Messungen Pending DE112021004793T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-149865 2020-09-07
JP2020149865 2020-09-07
PCT/JP2021/031990 WO2022050279A1 (ja) 2020-09-07 2021-08-31 三次元計測装置

Publications (1)

Publication Number Publication Date
DE112021004793T5 true DE112021004793T5 (de) 2023-07-06

Family

ID=80491009

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021004793.0T Pending DE112021004793T5 (de) 2020-09-07 2021-08-31 Vorrichtung für dreidimensionale Messungen

Country Status (5)

Country Link
US (1) US20230296373A1 (de)
JP (1) JPWO2022050279A1 (de)
CN (1) CN116134289A (de)
DE (1) DE112021004793T5 (de)
WO (1) WO2022050279A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023015886A (ja) * 2021-07-20 2023-02-01 株式会社キーエンス 形状検査装置、処理装置、高さ画像処理方法および高さ画像処理プログラム
JP2023133723A (ja) * 2022-03-14 2023-09-27 株式会社デンソーウェーブ 三次元計測装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07260444A (ja) 1994-03-24 1995-10-13 Nippon Avionics Co Ltd 光切断法による対象物の三次元計測方法およびその装置
JPH1133275A (ja) 1997-07-18 1999-02-09 Hitachi Ltd 脱水洗濯機の防振装置
JP2000088539A (ja) 1998-09-11 2000-03-31 Minolta Co Ltd 3次元入力方法及び3次元入力装置
JP2001227923A (ja) 1999-12-06 2001-08-24 Kobe Steel Ltd 輪郭形状測定方法及び輪郭形状測定装置
JP2003329419A (ja) 2002-05-16 2003-11-19 Mitsubishi Electric Corp 形状測定装置
JP2006333493A (ja) 2001-09-20 2006-12-07 Sony Corp 固体撮像装置及びその制御方法
JP2012141964A (ja) 2010-12-15 2012-07-26 Canon Inc 画像処理装置、画像処理装置の制御方法、距離計測装置、およびプログラム
JP2013148353A (ja) 2012-01-17 2013-08-01 Panasonic Corp 検査装置および3次元画像認識装置ならびに3次元画像認識方法
JP2014002744A (ja) 2012-06-19 2014-01-09 Samsung Electronics Co Ltd イベントベースイメージ処理装置及びその装置を用いた方法
JP2018516395A (ja) 2015-03-16 2018-06-21 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) シーンを3d再構成するための方法
JP2020136958A (ja) 2019-02-21 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 イベント信号検出センサ及び制御方法
JP2021032763A (ja) 2019-08-27 2021-03-01 ソニー株式会社 測距システム及び電子機器

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63149507A (ja) * 1986-12-13 1988-06-22 Kobe Steel Ltd 作業線自動検出方法
JPH11271030A (ja) * 1998-03-25 1999-10-05 Minolta Co Ltd 3次元計測装置
JP4608293B2 (ja) * 2003-12-25 2011-01-12 株式会社プレックス 手の立体計測装置及び方法
JP4821934B1 (ja) * 2011-04-14 2011-11-24 株式会社安川電機 3次元形状計測装置およびロボットシステム
CN109458928B (zh) * 2018-10-29 2020-12-25 西安知微传感技术有限公司 基于扫描振镜和事件相机激光线扫描3d检测方法及***

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07260444A (ja) 1994-03-24 1995-10-13 Nippon Avionics Co Ltd 光切断法による対象物の三次元計測方法およびその装置
JPH1133275A (ja) 1997-07-18 1999-02-09 Hitachi Ltd 脱水洗濯機の防振装置
JP2000088539A (ja) 1998-09-11 2000-03-31 Minolta Co Ltd 3次元入力方法及び3次元入力装置
JP2001227923A (ja) 1999-12-06 2001-08-24 Kobe Steel Ltd 輪郭形状測定方法及び輪郭形状測定装置
JP2006333493A (ja) 2001-09-20 2006-12-07 Sony Corp 固体撮像装置及びその制御方法
JP2003329419A (ja) 2002-05-16 2003-11-19 Mitsubishi Electric Corp 形状測定装置
JP2012141964A (ja) 2010-12-15 2012-07-26 Canon Inc 画像処理装置、画像処理装置の制御方法、距離計測装置、およびプログラム
JP2013148353A (ja) 2012-01-17 2013-08-01 Panasonic Corp 検査装置および3次元画像認識装置ならびに3次元画像認識方法
JP2014002744A (ja) 2012-06-19 2014-01-09 Samsung Electronics Co Ltd イベントベースイメージ処理装置及びその装置を用いた方法
JP2018516395A (ja) 2015-03-16 2018-06-21 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) シーンを3d再構成するための方法
JP2020136958A (ja) 2019-02-21 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 イベント信号検出センサ及び制御方法
JP2021032763A (ja) 2019-08-27 2021-03-01 ソニー株式会社 測距システム及び電子機器

Also Published As

Publication number Publication date
WO2022050279A1 (ja) 2022-03-10
US20230296373A1 (en) 2023-09-21
CN116134289A (zh) 2023-05-16
JPWO2022050279A1 (de) 2022-03-10

Similar Documents

Publication Publication Date Title
DE102013008273B4 (de) Dreidimensionale Bilderfassungsvorrichtung
DE10058244C2 (de) Messverfahren zur Ermittlung der Position eines Objektes vor einem Bildschirm und Vorrichtung zur Durchführung des Verfahrens
DE102018108027B4 (de) Objekterfassungsvorrichtung
DE102010023108B4 (de) Projektor mit automatischer Fokussierung und Abbildungsverfahren
US20180120687A1 (en) Ranging method, automatic focusing method and device
DE602004001500T2 (de) Apparat für dreidimensionale Messungen
DE102015205738A1 (de) Bewegungsmesssystem einer Maschine und Verfahren zum Betreiben des Bewegungsmesssystems
DE102006059416B4 (de) Vorrichtung und Verfahren zur Steigerung der Messgenauigkeit digitaler 3D-Geometriemesssysteme
EP1395852A1 (de) Verfahren zur bereitstellung von bildinformationen
EP2400261A1 (de) Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
DE112021004793T5 (de) Vorrichtung für dreidimensionale Messungen
EP0085868B1 (de) Vorrichtung zur automatischen optischen Beschaffenheitsprüfung
DE102014107143B4 (de) System und Verfahren zur Messung der Verschiebung einer Objektoberfläche
DE112008004187T5 (de) Objektmessvorrichtung und verfahren zur verwendung in der vorrichtung
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE10154861A1 (de) Verfahren zur Bereitstellung von Bildinformationen
DE102018107064A1 (de) Kalibrierungsvorrichtung eines Bildgebungssystems und zugeordnetes Kalibrierungsverfahren
DE102017200628A1 (de) Musterprüfvorrichtung
DE102016206264A1 (de) Bildmessvorrichtung, Bildmessverfahren, Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
DE102018002659B4 (de) Bildvorrichtung zum Erfassen von Anomalien von Entfernungsbildern
DE102009010837A1 (de) Verfahren zur Inspektion von Wafern für Solarzellen auf Sägerillen
EP3496398B1 (de) Sichere stereokamera und verfahren zum prüfen der funktionsfähigkeit der bildsensoren
DE102011000088A1 (de) Verfahren zur Ermittlung eines Verfahrweges bei der Messung von Strukturen eines Objekts
DE112020002626T5 (de) Dreidimensionale Messvorrichtung und dreidimensionales Messverfahren
DE112021004600T5 (de) Dreidimensionale messvorrichtung und dreidimensionales messverfahren