DE102012211734A1 - Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine - Google Patents

Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine Download PDF

Info

Publication number
DE102012211734A1
DE102012211734A1 DE201210211734 DE102012211734A DE102012211734A1 DE 102012211734 A1 DE102012211734 A1 DE 102012211734A1 DE 201210211734 DE201210211734 DE 201210211734 DE 102012211734 A DE102012211734 A DE 102012211734A DE 102012211734 A1 DE102012211734 A1 DE 102012211734A1
Authority
DE
Germany
Prior art keywords
edges
transformed
contour
footprint
support surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201210211734
Other languages
English (en)
Inventor
Walter Kranitzky
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Johannes Heidenhain GmbH
Original Assignee
Dr Johannes Heidenhain GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Johannes Heidenhain GmbH filed Critical Dr Johannes Heidenhain GmbH
Priority to DE201210211734 priority Critical patent/DE102012211734A1/de
Publication of DE102012211734A1 publication Critical patent/DE102012211734A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Machine Tool Sensing Apparatuses (AREA)

Abstract

Es wird ein Verfahren und eine Vorrichtung zur Bestimmung der Position eines Objektes auf einem Tisch einer Werkzeugmaschine beschrieben, wobei der Tisch eine Auflagefläche (1) aufweist und die Standfläche des Objektes (2), mit der das Objekt die Auflagefläche berührt, vorab bekannt ist, wobei das Verfahren folgende Schritte aufweist: a) Aufnehmen eines Bildes des Objektes in einer Schrägansicht, b) Bestimmen einer Kontur (A–F) des Objektes als die Kanten (A, B, C, D, E, F) eines Bildbereiches, der die Auflagefläche (1) verdeckt, c) Transformieren des Bildes in eine Draufsicht auf die Auflagefläche, wobei die Kontur zu einer transformierten Kontur (A‘–F‘) transformiert wird, unter der Annahme, dass alle Kanten (A, B, C, D, E, F) in der Auflagefläche (1) liegen, d) Einpassen der vorab bekannten Standfläche des Objektes in die transformierte Kontur, indem eine Position gesucht wird, in der ein Teil der Kanten (A, B) der Standfläche des Objektes möglichst gut mit einem Teil der transformierten Kanten (A‘, B‘) übereinstimmen, e) Festlegen der im Schritt d) aufgefundenen Position als die Position des Objektes auf der Auflagefläche.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine.
  • Solche Verfahren sind z.B. notwendig, um nach dem Aufspannen eines Werkstücks die genaue Lage des Werkstücks und seiner Spannmittel innerhalb der Werkzeugmaschine zu ermitteln. Die Kenntnis dieser Lage ist entscheidend für eine exakte Bearbeitung des Werkstücks, aber auch z.B. für eine Kollisionsüberwachung.
  • Da das Aufspannen und Einrichten eines Werkstücks in einer Werkzeugmaschine oft einen erheblichen Teil der Bearbeitungszeit ausmacht, ist es von Vorteil, wenn das Erfassen der genauen Lage vom Werkstück und seinen Spannmitteln möglichst schnell gelingt. Hierzu wurden bereits verschiedene Vorrichtungen oder Verfahren bekannt, die auf der Erfassung der Aufspannsituation mit der Hilfe von Kameras beruhen.
  • So ist in der DE 11 2007 001 977 T5 ein Verfahren beschrieben, bei dem aus dem Kamerabild eines Werkstücks ein Modell des Werkstücks extrahiert wird. Die hierzu verwendeten Verfahren wie beispielsweise das Auffinden von Kanten werden ausführlich dargestellt. Das Modell wird anschließend mit bekannten Objekten verglichen, um das jeweils vorliegende Objekt zu identifizieren. Aus dem Kamerabild werden später Position und Lage des Objekts ermittelt und beispielsweise für eine Kollisionsüberwachung herangezogen.
  • Das Auffinden und Zuordnen von Kanten eines Objekts in einem Kamerabild ist jedoch sehr aufwändig. So müssen eine Vielzahl von Hypothesen getroffen und ggf. wieder verworfen werden, bis eine Übereinstimmung mit einem bekannten Objekt mit ausreichender Sicherheit erkannt werden kann.
  • Aus der DE 196 07 258 A1 ist es bekannt, Objekte anhand ihrer Kontur zu erkennen und deren Lage zu bestimmen. Hierzu werden die Objekte vor einem bekannten, charakteristischen Hintergrund von einer Kamera aufgenommen. Da die Objekte außerdem auf einer ebenen Fläche liegen, auf die die Kamera senkrecht von oben schaut, ist die Bestimmung der Kontur der Objekte besonders einfach.
  • Auch in der DE 10 2010 037 448 A1 werden Objekte auf einer ebenen Fläche mit bekanntem Muster senkrecht von oben mit einer Kamera aufgenommen. Wieder soll die Kontur des Objektes bestimmt werden, um das Objekt anhand eines Vergleichs mit bekannten Konturen zu bestimmten. Es werden verschiedene Möglichkeiten offenbart, wie die Kontur des Objektes extrahiert werden kann. So ist einmal eine Analyse des bekannten Musters möglich: An den Stellen, an denen dieses Muster unterbrochen ist, beginnt die Kontur des Objektes. Alternativ kann die Differenz zweier Bilder berechnet werden, auf dem einmal nur das bekannte Muster zu erkennen ist, und einmal zusätzlich das Objekt. In einem Differenzbild tritt die Kontur des Objektes dann deutlich zum Vorschein.
  • Die beiden letztgenannten Verfahren identifizieren ein Objekt anhand einer Projektion des Objektes auf die Auflagefläche. Diese Projektion kommt durch die Aufnahme des Objektes mit einer Kamera zustande, die senkrecht auf die ebene Auflagefläche ausgerichtet ist. Bei relativ flachen Objekten wie z.B. Büchern entspricht diese Projektion in etwa der Standfläche des Objektes, also der Kontaktfläche zwischen der Auflagefläche und dem Objekt.
  • Dieser Gedanke ließe sich auch bei der Erkennung und Lageermittlung von Werkstücken und Spannmitteln in Werkzeugmaschinen einsetzen, denn auch hier ist die Menge der möglichen Standflächen begrenzt und vorab bekannt. Beide letztgenannten Verfahren scheitern jedoch, wenn Objekte nicht senkrecht von oben abgebildet werden, sondern in einer Schrägansicht. Dann nämlich steht man vor dem Problem, dass die erkannte Kontur auch solche Kanten enthält, die nicht der Standfläche des Objekts zuzuordnen sind, sondern sozusagen der „Skyline“ des Objektes. Selbst wenn eine Draufsicht auf das Objekt möglich ist (was in Werkzeugmaschinen aus Platzgründen oft gar nicht der Fall ist), zeigt so eine Draufsicht nicht die Umrisse der Standfläche des Objektes, sondern eher eine Projektion der höher liegenden Kanten auf die Auflagefläche.
  • Aufgabe der Erfindung ist es, ein Verfahren und eine für das Verfahren geeignete Vorrichtung zu schaffen, die eine vereinfachte Lokalisierung eines Objektes in einer Werkzeugmaschine mittels einer Kamera ermöglichen. Hierzu soll aus einem oder mehreren Schrägbildern des Objektes die Standfläche des Objektes auf einem Tisch ermittelt werden.
  • Diese Aufgabe wird gelöst durch ein Verfahren gemäß Anspruch 1 und eine Vorrichtung gemäß dem unabhängigen Vorrichtungsanspruch. Vorteilhafte Details ergeben sich aus den abhängigen Ansprüchen.
  • Es wird ein Verfahren zur Bestimmung der Position eines Objektes auf einem Tisch einer Werkzeugmaschine beschrieben, wobei der Tisch eine Auflagefläche aufweist und die Standfläche des Objektes, mit der das Objekt die Auflagefläche berührt, vorab bekannt ist, mit folgenden Schritten:
    • a) Aufnehmen eines Bildes des Objektes in einer Schrägansicht,
    • b) Bestimmen einer Kontur des Objektes als die Kanten eines Bildbereiches, der die Auflagefläche verdeckt,
    • c) Transformieren des Bildes in eine Draufsicht auf die Auflagefläche, wobei die Kontur zu einer transformierten Kontur transformiert wird, unter der Annahme, dass alle Kanten in der Auflagefläche liegen,
    • d) Einpassen der vorab bekannten Standfläche des Objektes in die transformierte Kontur, indem eine Position gesucht wird, in der ein Teil der Kanten der Standfläche des Objektes möglichst gut mit einem Teil der transformierten Kanten übereinstimmen,
    • e) Festlegen der im Schritt d) aufgefundenen Position als die Position des Objektes auf der Auflagefläche.
  • So wird das Problem der Unterscheidung von solchen Kanten, die die Standfläche des Objektes umranden, von Kanten der Skyline des Objektes, auf einfach Weise gelöst. Es wurde nämlich erkannt, dass bei einer Transformation des Bildes aus einer Schrägansicht in eine Draufsicht gerade die Kanten der Standfläche auch zu Kanten der Draufsicht werden, während die Kanten der Skyline nach der Transformation irgend einen Verlauf ohne Bezug zur tatsächlichen Standfläche aufweisen. Es fällt dann relativ leicht, die vorab bekannte Standfläche in die transformierte Kontur einzupassen, etwa in dem man Kante für Kante versucht, die bekannte Standfläche anzulegen. Sollten dabei mehrere Lösungen möglich sein, so kann die einzig richtige Lösung durch weitere Schrägbilder des Objektes und Wiederholung der Schritte a)–d) gefunden werden. Die transformierten Konturen umranden jeweils Bereiche, deren Schnittmenge immer näher an der bekannten Standfläche liegt. Wenn die Schrägbilder zusammen alle Kanten der Standfläche zeigen, dann entspricht diese Schnittmenge sogar der Standfläche. Für einfache Objekte kann dies schon mit zwei aus zwei entgegengesetzten Richtungen aufgenommenen Bildern des Objektes erreicht werden.
  • Letztlich erhält man eine Draufsicht auf die Auflagefläche des Tisches und eine darin enthaltene Standfläche des Objektes. Anhand dieser Draufsicht lässt sich dann die Position der Standfläche in der Auflagefläche, und damit die Position des Objektes auf dem Tisch der Werkzeugmaschine bestimmen.
  • Das Verfahren ermöglicht es sogar, ein auf dem Tisch befindliches Objekt zu identifizieren. Hierzu müssen nur alle Standflächen der in Frage kommenden Objekte vorab bekannt und unterschiedlich sein. Beim Einpassen der Standflächen in die transformierte Kontur wird dann dasjenige Objekt erkannt, dessen Standfläche am besten zu den transformierten Kanten passt, ggf. auch nach der Auswertung mehrerer Ansichten des Objektes aus unterschiedlichen Richtungen.
  • Die einzelnen Verfahrensschritte werden in einer Auswertevorrichtung durchgeführt, die mit einer Kamera verbunden ist, und die Zugriff auf die Position des Tisches sowie auf die vorbekannten Standflächen der Objekte hat. Die Auswertevorrichtung kann besonders einfach als Software in einer Numerischen Steuerung realisiert werden, die ansonsten zur Steuerung der Werkzeugmaschine dient.
  • Weitere Vorteile sowie Einzelheiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung einer bevorzugten Ausführungsform anhand der Figuren. Dabei zeigt
  • 1 ein Objekt auf einem Maschinentisch, das von einer Kamera aufgenommen wird,
  • 2 ein Schrägbild des Objektes, wie es von der Kamera geliefert wird,
  • 3 eine Transformation zweier aus verschiedenen Richtungen aufgenommenen Konturen des Objekts in eine senkrechte Draufsicht auf den Maschinentisch.
  • 1 zeigt den Tisch 1 einer Werkzeugmaschine, auf dem ein Objekt 2 angeordnet ist. Der Tisch wird im Folgenden auch als Auflagefläche 1 des Objektes 2 bezeichnet. Das Objekt 2 kann beispielsweise ein Werkstück oder auch ein Spannmittel sein, das jeweils aus einer Menge von bekannten Werkstücken oder Spannmitteln ausgewählt und auf dem Tisch 1 befestigt wurde. Dieses Objekt 2 soll anhand seiner Standfläche, mit der das Objekt 2 die Auflagefläche 1 berührt, identifiziert und seine Position auf dem Tisch ermittelt werden, um so die Aufspannsituation zu erfassen. Die so ermittelte Aufspannsituation kann dann mit einer gewünschten Aufspannsituation verglichen werden. Alternativ kann die Bearbeitung des Werkstücks an dessen Lage angepasst werden. Ein Spannmittel kann außerdem in eine Kollisionsüberwachung eingebunden werden.
  • Hierzu wird von einer seitlich angebrachten Kamera 3 ein Bild der Szene in einer Schrägansicht aufgenommen. Voraussetzung für eine erfolgreiche Identifizierung und Lokalisierung ist, dass Lage und Ausrichtung des Tisches 1 bekannt sind. Dies ist in einer Werkzeugmaschine üblicherweise gegeben, da die Freiheitsgrade des Tisches über Achsantriebe eingestellt werden. Der Tisch ist Teil der kinematischen Kette der Maschine, die eine Transformation der Werkstückkoordinaten in die Werkzeugkoordinaten beschreibt. Außerdem weist in diesem Ausführungsbeispiel die Oberfläche des Tisches 1 ein bekanntes Muster 4 auf, anhand dessen eine Positionsbestimmung des Objektes 2 möglich ist. Hierzu kann das regelmäßige Muster von T-Nuten dienen, das üblicherweise auf so einem Tisch 1 zu finden ist, oder aber ein eigens zu diesem Zweck aufgebrachtes Schachbrettmuster oder ähnliches.
  • Die 2 zeigt ein Schrägbild des Objektes, wie es von der Kamera geliefert wird. In diesem Schrägbild lässt sich eine Kontur A–F des Objektes 2 bestimmen, die durch die Kanten A, B, C, D, E, F gebildet wird. Außerhalb dieser Kontur A–F ist noch die Auflagefläche 1 mit seinem bekannten Muster 4 abgebildet. Innehrhalb dieser Kontur ist das bekannte Muster 4 vom Objekt 2 verdeckt.
  • Die Bestimmung der Kontur A–F ist dann relativ einfach. Eine bevorzugte Möglichkeit besteht darin, jeweils ein Bild des Tisches 1 alleine und ein Bild des Tisches 1 mit Objekt 2 voneinander abzuziehen. In dieser Differenz der beiden Bilder tritt das Objekt 2 deutlich hervor. Nach einer Kantendetektion am Differenzbild, dass dann nur noch aus 1-Bit Pixeldaten besteht (also etwa weiße Kanten vor schwarzem Hintergrund) lässt sich die Kontur A–F des Objektes 2 mit den Kanten A, B, C, D, E, F besonders einfach extrahieren.
  • Es ist aber nach einer Kantenerkennung nicht ohne weiteres klar, welche der Kanten A, B, C, D, E, F tatsächlich die Standfläche des Objektes 2 umrandet (also im Beispiel die Kanten A und B), und welche der Kanten Teil der Skyline des Objektes 2 bilden (hier die Kanten C, D, E, F), die nicht in der Auflagefläche 1 liegen, sondern senkrecht oder parallel (und nicht in der Tischebene) hierzu.
  • Die Erfindung löst dieses Unterscheidungsproblem auf eine besonders einfache Weise. Zunächst soll vereinfachend angenommen werden, dass das Objekt 2 auf dem Tisch 1 an sich bekannt ist, und damit auch die Form und die Maße seiner Standfläche, im Beispiel ein Rechteck mit den Kantenlängen /A/ und /B/.
  • Es wird nun angenommen, dass die gesamte Kontur A–F des auf dem Kamerabild sichtbaren Objektes 2 dessen Standfläche umrandet. Anders ausgedrückt wird angenommen, dass die Kanten A–F allesamt in der Auflagefläche 1 bzw. in der Tischebene liegen, und daher die Kontur eines völlig ebenen, zweidimensionalen Objektes bilden, das auf der Auflagefläche 1 liegt.
  • Dann wird eine Transformation des Kamerabildes mit der Kontur A–F durchgeführt, die die Schrägansicht der Auflagefläche 1 in eine Draufsicht umwandelt. Dies ist leicht möglich, da Lage und Ausrichtung der Auflagefläche 1 wie oben erklärt bekannt sind. Mit dieser Transformation wird auch die Kontur A–F in eine transformierte Kontur A’–F’ transformiert, wie in der 3 dargestellt. Die Kanten A‘ und B‘, die im Schrägbild der 2 echte Kanten A, B der Standfläche sind, erscheinen in der so erstellten Draufsicht in ihrer tatsächlichen, einer Draufsicht auf die Standfläche des Objektes 2 entsprechenden Form und Lage, während die Kanten C‘, D‘, E‘ und F‘ (die ja Transformationen der Skyline-Kanten C, D, E, F sind) keine sinnvolle Bedeutung haben.
  • Versucht man aber nun, die vorab bekannte Standfläche des Objektes 1 in die durch Transformation erhaltenen Kanten A‘, B‘, C‘, D‘, E‘, F‘ einzupassen, erkennt man, dass es in diesem Beispiel hierfür nur zwei Möglichkeiten gibt. Ein Rechteck mit den Seitenlängen /A/ und /B/ lässt sich nur an den Kanten A‘ und B‘, oder an den Kanten D‘ und E‘ anlegen.
  • In einfacher gelagerten Fällen (z.B. Standfläche ist ein Dreieck mit drei unterschiedlichen Winkeln bzw. Kantenlängen) kann so schon aus einem einzigen Kamerabild eindeutig die Position des Objektes 2 auf dem Tisch 1 ermittelt werden. Im vorliegenden Fall ist hierzu eine weitere Aufnahme des Objektes 2 aus einer anderen Richtung nötig. Diese kann leicht erstellt werden, wenn man den Tisch 1 (wie es in vielen Werkzeugmaschinen möglich ist) ein Stück dreht, so dass die Kamera eine deutlich andere Ansicht des Objektes 2 liefert.
  • Im Beispiel wurde der Tisch 1 um 180 Grad gedreht. In der 3 ist mit gestrichelter Umrandung das Ergebnis der Transformation für die zweite, aus dem zweiten Bild ermittelte Kontur des Objekts gezeigt. Man erkennt sofort, dass es nun nur noch eine einzige Möglichkeit gibt, die bekannte Standfläche so einzupassen, dass jede der Kanten der Standfläche mit einer der mittels Transformation erhaltenen Kanten zusammen fällt. In diesem einfach gewählten Beispiel ist die Schnittmenge S der beiden durch Transformation entstandenen Konturen gerade die gesuchte Standfläche. Mit anderen Objekten und/oder anders gewählten Ansichten wird dies nicht der Fall sein. Vielmehr werden manche Kanten, die in mehreren Ansichten zu sehen sind, in der Transformation aufeinander liegen, und es werden möglicherweise nicht alle gesuchten Kanten der Standfläche abgebildet sein, weil sie in keiner Ansicht zu sehen waren. Wichtig ist nur, dass die bekannte Standfläche eindeutig einem Satz von transformierten Kanten zugeordnet werden kann. Die Zuordnung wird mit zwei oder mehr ausgewerteten Bildern erheblich erleichtert, weil sich die Standfläche innerhalb der Schnittmenge S der von den transformierten Konturen eingeschlossenen Flächen befinden muss.
  • Die Form der Objekte (oder genauer von deren Standfläche) ist dabei nicht wichtig, es können sowohl Geraden als auch Bögen als Kanten vorkommen, die stetig oder mit Knicken ineinander übergehen. Für echte Kanten A, B zwischen der Standfläche des Objektes 2 und der Auflagefläche 1 des Tisches wird die Transformation immer eine Draufsicht auf die Standfläche liefern.
  • Da wie erwähnt die echten Kanten A, B der Standfläche des Objektes im transformierten Bild, also in der Draufsicht, an der Stelle liegen, an der sie auch real liegen, lässt sich die Lage dieser Kanten anhand des Musters 4 ablesen, etwa durch Abzählen der Nuten auf dem Tisch 1 und ggf. Interpolieren einer Kantenposition. Hierfür muss also das Muster 4 bekannt und zur Positionsbestimmung geeignet sein. Für genauere Positionsbestimmungen kann natürlich auch ein entsprechend feineres Muster 4 auf der Auflagefläche 1 angebracht werden, etwa in der Form eines Kreuzgitters oder eines Schachbrettmusters.
  • Eine andere Möglichkeit zur Positionsbestimmung besteht darin, die Kamera vorab zu kalibrieren, so dass jedem Bildpunkt auf dem Tisch 1 bereits eine Position zugeordnet ist. Die Position einer im Bild bestimmten Kante der Standfläche des Objektes steht damit sofort fest. Eine solche Kalibrierung kann beispielsweise mittels eines Schachbrettmusters vorgenommen werden, das zum Kalibrieren der Kamera auf den Tisch 1 gelegt wird.
  • Nur unwesentlich schwieriger wird die Aufgabe, wenn zusätzlich zur Lage des Objektes auch das Objekt selbst erkannt werden soll, wenn also z.B. ein Spannmittel aus einer Menge von bekannten Spannmitteln erkannt werden soll. Haben diese Spannmittel unterschiedliche Standflächen, so muss also versucht werden, alle bekannten Standflächen an der transformierten Kontur A’–F’ anzulegen, ggf. auch an mehreren solcher transformierten Konturen und deren Schnittmenge S, die aus unterschiedlichen Ansichten generiert wurden. Dies wird nur mit der Standfläche desjenigen Objektes gelingen, das sich tatsächlich auf dem Tisch befindet.
  • Sowohl bei der Lagebestimmung als auch bei der Erkennung des Objektes 1 werden sich z.B. aufgrund von Abbildungsfehlern oder Fehlern in der Transformation nie exakte Übereinstimmungen zwischen den tatsächlichen, vorbekannten Kanten A, B der Standfläche mit den aus der Transformation erhaltenen Kanten A‘, B‘ ergeben. Es kann daher eine Gütefunktion herangezogen werden, anhand derer die beste Lösung aufgefunden werden kann. Überschreitet der Wert der Gütefunktion einen gewissen Schwellwert, oder ist dieser Wert für eine gefundene Lösung (entsprechend einem erkannten Objekt und dessen Lage) deutlich besser als für alle anderen möglichen Lösungen, so kann man von der Richtigkeit der Lösung ausgehen.
  • Somit kann auf einfache Weise ein Objekt 2 auf dem Tisch 1 einer Werkzeugmaschine erkannt und gleichzeitig dessen Lage ermittelt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 112007001977 T5 [0004]
    • DE 19607258 A1 [0006]
    • DE 102010037448 A1 [0007]

Claims (7)

  1. Verfahren zur Bestimmung der Position eines Objektes auf einem Tisch einer Werkzeugmaschine, wobei der Tisch eine Auflagefläche (1) aufweist und die Standfläche des Objektes (2), mit der das Objekt (2) die Auflagefläche (1) berührt, vorab bekannt ist, mit folgenden Schritten: a) Aufnehmen eines Bildes des Objektes (2) in einer Schrägansicht, b) Bestimmen einer Kontur (A–F) des Objektes (2) als die Kanten (A, B, C, D, E, F) eines Bildbereiches, der die Auflagefläche (1) verdeckt, c) Transformieren des Bildes in eine Draufsicht auf die Auflagefläche (1), wobei die Kontur (A–F) zu einer transformierten Kontur (A’–F’) transformiert wird, unter der Annahme, dass alle Kanten (A, B, C, D, E, F) in der Auflagefläche (1) liegen, d) Einpassen der vorab bekannten Standfläche des Objektes in die transformierte Kontur (A’–F’), indem eine Position gesucht wird, in der ein Teil der Kanten (A, B) der Standfläche des Objektes (2) möglichst gut mit einem Teil der transformierten Kanten (A‘, B‘) übereinstimmen, e) Festlegen der im Schritt d) aufgefundenen Position als die Position des Objektes (2) auf der Auflagefläche (1).
  2. Verfahren nach Anspruch 1, wobei im Falle einer mehrdeutigen Lösung im Schritt d) die Schritte a), b), c) und d) wiederholt werden, dabei im Schritt a) ein Bild aus einer weiteren Richtung aufgenommen wird, und im Schritt d) Kanten der bisher transformierten Konturen (A’–F’) herangezogen werden.
  3. Verfahren nach Anspruch 2, wobei im Schritt d) die Position der Standfläche des Objektes (2) in einer Schnittmenge (S) der von den transformierten Konturen (A’–F’) umrandeten Bereiche gesucht wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei im Schritt b) zur Bestimmung der Kontur (A–F) des Objektes (2) die Differenz zweier Bilder herangezogen wird, die die Auflagefläche (1) einmal ohne und einmal mit dem Objekt (2) zeigen.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei im Schritt d) bekannte Standflächen von mehreren Objekten (2) mit unterschiedlicher Standfläche herangezogen werden, und dasjenige Objekt, dessen Kanten (A, B) seiner Standfläche am besten mit einem Teil der Kanten (A‘, B‘) übereinstimmt, als das auf dem Tisch angeordnete Objekt (2) identifiziert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei im Schritt d) die Übereinstimmung der vorab bekannten Standfläche des Objektes mit der transformierten Kontur (A’–F’) anhand einer Gütefunktion beurteilt wird.
  7. Vorrichtung zur Bestimmung der Position eines Objektes auf einem Tisch einer Werkzeugmaschine, wobei der Tisch eine Auflagefläche (1) aufweist und die Standfläche des Objektes (2), mit der das Objekt (2) die Auflagefläche (1) berührt, vorab bekannt ist, mit einer Kamera (3), die eine Schrägansicht des Objektes (2) liefert, sowie mir einer Auswerteeinrichtung, die ausgebildet und vorgesehen ist zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 6.
DE201210211734 2012-07-05 2012-07-05 Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine Withdrawn DE102012211734A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210211734 DE102012211734A1 (de) 2012-07-05 2012-07-05 Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210211734 DE102012211734A1 (de) 2012-07-05 2012-07-05 Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine

Publications (1)

Publication Number Publication Date
DE102012211734A1 true DE102012211734A1 (de) 2014-01-23

Family

ID=49879833

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210211734 Withdrawn DE102012211734A1 (de) 2012-07-05 2012-07-05 Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine

Country Status (1)

Country Link
DE (1) DE102012211734A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3026970A1 (fr) * 2014-10-08 2016-04-15 Solystic Procede de traitement d'objets postaux sur fond texturise
DE102020118801A1 (de) 2020-07-16 2022-01-20 Carl Zeiss Microscopy Gmbh Mikroskop und verfahren zur abstandsbestimmung einer probenreferenzebene

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19607258A1 (de) 1996-02-27 1997-08-28 Olaf Haehnel Verfahren und Vorrichtung zur Detektion und/oder zur Größen- und/oder Lagebestimmung eines Objekts
DE112007001977T5 (de) 2006-09-01 2009-07-23 Intelligent Manufacturing Systems International Verfahren zur Generierung dreidimensionaler Modelldaten und Vorrichtung zur Generierung dreidimensionaler Modelldaten
DE102010037448A1 (de) 2010-09-10 2012-03-15 Wincor Nixdorf International Gmbh Verfahren und Vorrichtung zur Erfassung von Leergutbehältern

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19607258A1 (de) 1996-02-27 1997-08-28 Olaf Haehnel Verfahren und Vorrichtung zur Detektion und/oder zur Größen- und/oder Lagebestimmung eines Objekts
DE112007001977T5 (de) 2006-09-01 2009-07-23 Intelligent Manufacturing Systems International Verfahren zur Generierung dreidimensionaler Modelldaten und Vorrichtung zur Generierung dreidimensionaler Modelldaten
DE102010037448A1 (de) 2010-09-10 2012-03-15 Wincor Nixdorf International Gmbh Verfahren und Vorrichtung zur Erfassung von Leergutbehältern

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3026970A1 (fr) * 2014-10-08 2016-04-15 Solystic Procede de traitement d'objets postaux sur fond texturise
DE102020118801A1 (de) 2020-07-16 2022-01-20 Carl Zeiss Microscopy Gmbh Mikroskop und verfahren zur abstandsbestimmung einer probenreferenzebene

Similar Documents

Publication Publication Date Title
DE102018212531B4 (de) Artikeltransfervorrichtung
EP3316181B1 (de) Verfahren zum erkennen von objekten in einem lager und flurförderzeug mit einer einrichtung zum erkennen von objekten in einem lager
EP2457217B1 (de) Verfahren und vorrichtung zum überwachen eines raumbereichs
DE102015205225A1 (de) Verfahren und Vorrichtung zum Erkennen eines Zielobjekts im toten Winkel eines Fahrzeugs
DE102017122362A1 (de) Objekterkennungsvorrichtung und Objekterkennungsverfahren
EP3387373B1 (de) Formermittlungsverfahren
EP2787485B1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
DE102017122010A1 (de) Erkennungsverfahren und Erkennungseinrichtung zur Erkennung einer dreidimensionalen Position eines Objekts
DE102016201741A1 (de) Verfahren zur Höhenerkennung
AT519722B1 (de) Verfahren zur Detektion zumindest eines Jetonobjekts
DE102015012344A1 (de) Verfahren zum Kalibrieren einer Kamera
DE102012211734A1 (de) Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine
DE102022201279B3 (de) Verfahren zum Erfassen einer Umgebung eines Fahrzeugs, Kameravorrichtung und Fahrzeug
DE19930745A1 (de) Verfahren und System zur Biegewinkelbestimmung
DE102007041482A1 (de) Verfahren zur automatischen Erkennung wenigstens der Art und/oder der Lage einer mit einer Gliedmaße gebildeten Geste, insbesondere einer Handgeste
EP3142068B1 (de) Verfahren zur dreidimensionalen erfassung von objekten
WO2008014961A2 (de) Verfahren zur lagebestimmung von objekten im dreidimensionalen raum
DE102017204629A1 (de) System mit einem werkzeug und verfahren zum führen eines benutzers eines werkzeugs bei einer behandlung mindestens eines werkstücks
AT520426B1 (de) Verfahren zur Kalibrierung einer Bildaufnahmeeinheit
DE102008037552B4 (de) Verfahren und Vorrichtung zur Positionsbestimmung von Werkstücken
DE10128722C1 (de) Vorrichtung zur Kontrolle von Objekten
EP3540507A1 (de) Bildaufnahmevorrichtung und verfahren zum aufnehmen einer bildaufnahme eines dokuments und verwendung
DE202013002483U1 (de) Vorrichtung zur Vermessung einer Schlachttierkörperhälfte
DE102005036421B4 (de) Verfahren zum automatischen Bestimmen der exakten Position von Passermarken
DE102019100660B4 (de) Verfahren zur Transformation zwischen Bildpunkten und Objektpunkten

Legal Events

Date Code Title Description
R005 Application deemed withdrawn due to failure to request examination