DE102012021375A1 - Vorrichtung und Verfahren zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels - Google Patents

Vorrichtung und Verfahren zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels Download PDF

Info

Publication number
DE102012021375A1
DE102012021375A1 DE102012021375A DE102012021375A DE102012021375A1 DE 102012021375 A1 DE102012021375 A1 DE 102012021375A1 DE 102012021375 A DE102012021375 A DE 102012021375A DE 102012021375 A DE102012021375 A DE 102012021375A DE 102012021375 A1 DE102012021375 A1 DE 102012021375A1
Authority
DE
Germany
Prior art keywords
dimensional
article
camera
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102012021375A
Other languages
English (en)
Other versions
DE102012021375B4 (de
Inventor
Shota TAKIZAWA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102012021375A1 publication Critical patent/DE102012021375A1/de
Application granted granted Critical
Publication of DE102012021375B4 publication Critical patent/DE102012021375B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Erkennungsvorrichtung und ein Verfahren zum Erkennen einer 3D-Position und Orientierung eines Artikels mit geringen Berechnungskosten. Ein 2D-Bild einer Region, in der Artikel wahllos platziert sind, wird von einer Kamera aufgenommen und eine 3D-Information der im Wesentlichen selben Region wird von einem Feldsensor erhalten. Ein Raum, in dem ein zu entnehmender Artikel angenommen wird, wird grob begrenzt. Basierend auf dem begrenzten Raum wird ein Suchzustand zum Suchen des Artikels mittels einer 2D-Bildbearbeitung eingestellt, und eine 2D-Positionsinformation des Bildes des Artikels wird erhalten. Anschließend werden 3D-Punktdaten ausgewählt, die zum Erkennen der 3D-Position und Orientierung des Artikels verwendet werden, und eine Sichtlinie in dem 3D-Raum, die sich von der Kamera zu dem Artikel erstreckt, wird berechnet, wobei die 3D-Position und Orientierung des Artikels berechnet wird.

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Erkennungsvorrichtung und ein Erkennungsverfahren zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels, die bei der Entnahme eines Artikels mittels eines Roboters verwendet werden.
  • 2. Beschreibung des Stands der Technik
  • In einem Robotersystem zum Entnehmen eines Artikels mittels eines Roboters werden Informationen bezüglich des Artikels von einer Kamera oder einem dreidimensionalen Bildsensor ermittelt, der mit einem Informationsprozessor oder einer Robotersteuerung verbunden ist. Die erhaltenen Informationen werden zur Korrektur der Bewegung des Roboters verwendet, der den Artikel entnimmt oder den Artikel inspiziert.
  • Als dreidimensionaler Bildsensor sind beispielsweise verschiedene Feldsensoren bekannt, die einen Abstanden zu einem zu messenden Objekt messen können. Einige Feldsensoren können dreidimensionale Informationen eines relativ weiten Bereichs ermitteln. Diese Feldsensoren können Informationen bezüglich einer dreidimensionalen Form eines Artikels als ein Bereichsbild oder eine Höhenkarte oder ähnliches erfassen. Die dreidimensionale Form eines Artikels kann nicht von einer Bildaufnahmevorrichtung wie einer Kamera erfasst werden.
  • Die japanische ungeprüfte Patentveröffentlichungsschrift (Kokai) Nr. 7-270137 offenbart einen dreidimensionalen Bildsensor des Punktlicht-Scan-Typs und offenbart, dass ”der dreidimensionale Bildsensor es durch die Bildung eines Messsystems ermöglicht, flexible Messungen effektiv auszuführen, die der Größe, Form, Perspektive und der benötigten dreidimensionalen Positionsinformation des zu messenden Objekts entsprechen. Ein Punktlichteinleitmittel, das die Einleitrichtung des Lichts frei mittels einer zweidimensionalen Zufalls-Scan-Steuerung ändern kann, ist mit einem Positions-Sensierungsdetektor (englisch: position sensing detector (PSD)) mit einer eindimensionalen Positionssensierungsfunktion kombinierbar.”
  • Die japanische ungeprüfte Patent-Veröffentlichungsschrift (Kokai) Nr. 9-196636 offenbart ein Verfahren zum Ermitteln von Daten bezüglich der Form eines Artikels und beschreibt, dass ”bei der Ausführung einer Kalibrierung eines Positionsdetektors 1 und dem Ermitteln einer Form eines Artikels unter Verwendung des Positionsdetektors 1, der von einer Schlitzlichtquelle 2 zum Bestrahlen des zu messenden Artikels W mit einem Schlitzlicht I und einer Kamera zum Aufnehmen eines Bildes des Schlitzlichts I gebildet wird, der Positionsdetektor 1 zu vorbestimmten Zeiten derart bewegt wird, dass ein Kameraparameter in einer perspektivischen Transformationsgleichung zum Konvertieren eines Koordinatensystems des Artikels W in ein Koordinatensystem auf dem Bild der Kamera 3, ein Schlitzlichtparameter in einer Ebenengleichung des den Artikel W bestrahlenden Schlitzlichts I, und ein Modellparameter in einer geometrischen Darstellungsgleichung zum Darstellen der Form des Artikels W bestimmt werden. Anschließend wird die Kalibrierung des Schlitzlichts und der Kamera und das Ermitteln der Formdaten des Artikels W automatisch mit einem Roboter-Koordinatensystem ausgeführt.”
  • Die japanische ungeprüfte Patent-Veröffentlichungsschrift (Kokai) Nr. 2005-62063 beschreibt, dass ”ein Bestrahlungsmuster auf einen zu messenden Artikel mittels eines Projektors 2 abgebildet wird, ein Reflektionsbildmuster des Bestrahlungsmusters auf dem Artikel 1 wird mittels einer Kamera 8 aufgenommen, die Flächenform des Artikels 1 wird mittels eines Formberechnungsabschnitts 13 basierend auf dem reflektierten Muster berechnet, und ein Kontrastverhältnis, das die Zuverlässigkeit der Messung des Artikels darstellt, wird basierend auf (Ia/(Pub – Plb)) mittels eines Zuverlässigkeits-Berechnungsabschnitts 14 berechnet, wobei Plb und Pub obere und untere Grenzen eines Lichtvolumens des Bestrahlungsmusters sind und Ia das Lichtvolumen darstellt. Anschließend werden die Daten der Flächenform und das Kontrastverhältnis durch ein Datenausgabemittel ausgegeben, wobei die Zuverlässigkeit der Formmessungsdaten des Artikels 1, der einer mehrfachen Reflektion unterliegt, präzise entsprechend den verschiedenen Musterprojektionsverfahren erfasst und die Beziehung zu jedem Pixel des aufgenommenen Bildes korrekt ermittelt werden kann.”
  • Ferner offenbart die japanische ungeprüfte Patent-Veröffentlichungsschrift (Kokai) Nr. 2004-272841 eine Artikelbeurteilungsvorrichtung mit einem Scan-Mittel zum Scannen eines Laserpulses in der Richtung der Breite einer Straße, ein Reflektionslicht-Erfassungsmittel zum Erfassen des reflektierten Lichts des Laserpulses, wenn das Scan-Mittel den Laserpuls in der Richtung der Breite der Straße scannt, ein Beurteilungsmittel zum Ermitteln der Höhe und der Breite eines an einer Scan-Linie des Laserpulses positionierten Artikels, wobei der Laserpuls durch das Scan-Mittel erhalten wird, und Beurteilen des Typs des Artikels unter Verwendung einer Zeitverzögerung zwischen einem Zeitpunkt, wenn das Scan-Mittel die Straße in der Richtung der Breite unter Verwendung des Laserpulses scannt, und einem Zeitpunkt, wenn das Reflektionslicht-Erfassungsmittel das reflektierte Licht des in der Richtung der Breite der Straße gescannten Laserpulses erfasst, wobei das Beurteilungsmittel den Artikel als Fußgänger erkennt, wenn die Höhe und die Breite des erfassten Objekts in einem Fußgänger-Erfassungsbereich mit einer bestimmten Breite, der an einer Seite der Straße angeordnet ist, innerhalb eines vorbestimmten Bereichs sind.
  • Andererseits wurden einige Verfahren zum Erkennen der Position und Orientierung eines Artikels unter Verwendung eines Feldsensors (oder eines Distanzsensors) vorgeschlagen. Beispielsweise offenbart die japanische ungeprüfte Patent-Veröffentlichungsschrift (Kokai) Nr. 2009-128191 eine Artikelerkennungsvorrichtung und eine Robotervorrichtung, und beschreibt, dass ”gemäß der Artikelerkennungsvorrichtung der Erfindung durch Ausführen einer Hochgeschwindigkeits-Positionierung basierend auf einer Menge von Eigenschaften wie einem Drehbild, einem dreidimensionale Formdaten-(Modell) eines Objekts und Abstandsdaten (Ort), die mittels eines Feldsensors erhalten und verglichen werden können, die dreidimensionale Position und Orientierung des Objekts schnell erkannt werden kann.”
  • Die japanische ungeprüfte Patent-Veröffentlichungsschrift (Kokai) Nr. 2004-144557 offenbart, dass ein Sensorkörper 110 von einem an der Hand eines Roboters 40 angebrachten Lichtprojektor 130 und einer Videokamera 30 gebildet wird. Der Lichtprojektor 130 projiziert ein Schlitzlicht 131 auf eine Fläche eines Objekts W, das in einem Betätigungsbereich 50 angeordnet ist, die Videokamera 30 empfängt ein reflektiertes Licht, und ein Lichtprozessor 2 analysiert das reflektierte Licht und ermittelt die Fläche, an der das Schlitzlicht 131 vorliegt. Die Videokamera 130 erhält ein Bild durch die normale Bildaufnahme, und eine Sichtlinie, die sich durch einen Messungspunkt Q erstreckt, wird unter Verwendung von Kalibrierungsdaten festgelegt.”
  • Ferner wurden einige Verfahren zum Erfassen der Position eines Artikels von einem Bild vorgeschlagen. Beispielsweise offenbart die japanische ungeprüfte Patent-Veröffentlichungsschrift (Kokai) Nr. 6-165036 ein Verfahren zum Abgleichen von radiologischen Bildern und beschreibt, dass ”Maskenbereiche 8, 8' auf einem Röntgenbild 4a und Maskenbereiche 9, 9' auf einem Röntgenbild 4b eingestellt werden. Die Anpassung der Masken wird durch Abgleichen der Maskenregionen 8, 8' mit den Maskenregionen 9, 9' unter Verwendung eines Korrelationsverfahrens ausgeführt.”
  • Ein typisches Verfahren zum Erkennen der Position und der Orientierung eines Artikels unter Verwendung eines Feldsensors (Abstandssensors) ist ein Verfahren zum Abgleichen von durch einen Feldsensor erhaltenen dreidimensionalen Informationen mit den dreidimensionalen Formdaten des Artikels, das in der japanischen ungeprüften Patent-Veröffentlichungsschrift (Kokai) Nr. 2009-128191 offenbart ist. Herkömmliche Erkennungsverfahren gehen mit sehr hohen Kosten für die Berechnung einher und benötigen Hochleistungsprozessoren und große Speicherkapazitäten. Daher ist es sehr schwierig, derartige Erkennungsverfahren in kurzer Zeit auszuführen. Ferner ist die exakte Erkennung des Artikels notwendig, um den Artikel unter Verwendung eines Roboters entnehmen zu können. In diesem Fall muss jedoch die räumliche Dichte der von dem Feldsensor erhaltenen dreidimensionalen Information hoch sein. Wenn die räumliche Dichte der dreidimensionalen Information zunimmt, verlängert sich die Messungszeit des Feldsensors und die Berechnungskosten für den Abgleichungsprozess bezüglich der dreidimensionalen Formdaten des Artikels erhöhen sich ebenfalls. Somit kann der Entnahmevorgang nicht ausgeführt werden.
  • Der Sensor zum Ermitteln der dreidimensionalen Information basierend auf der Flugzeit eines Laserimpulses, wie in der japanischen ungeprüften Patent-Veröffentlichungsschrift (Kokai) Nr. 2004-272841 offenbart ist, ist im Allgemeinen relativ groß, und billigere Sensoren können daher nicht vorgesehen werden. Zu dieser Zeit wurde der Feldsensor auf dem Gebiet der Entnahmevorgänge unter Verwendung von Robotern noch nicht in der Praxis eingesetzt.
  • Obwohl ein Verfahren, bei dem ein dreidimensionaler Sensor und ein zweidimensionaler Sensor kombiniert werden, in der japanischen ungeprüften Patent-Veröffentlichungsschrift (Kokai) Nr. 2004-144557 offenbart ist, ist es nicht beabsichtigt, einen Feldsensor zu verwenden. Das Verfahren kann die dreidimensionale Position und Orientierung eines Artikels mit relativ geringen Berechnungskosten und einer geringen Speichermenge im Vergleich zu dem voranstehend beschriebenen Erkennungsverfahren erkennen. Während das Verfahren der japanischen ungeprüften Patent-Veröffentlichungsschrift (Kokai) Nr. 2004-144557 die Berechnungskosten für die Verarbeitung der dreidimensionalen Information reduzieren kann, benötigt das Verfahren den in der japanischen ungeprüften Patent-Veröffentlichungsschrift (Kokai) Nr. 6-165036 beschriebenen Prozess, bei dem der Artikel innerhalb eines Messbereichs des Sensors unter Verwendung des zweidimensionalen Bildes gefunden wird, und die Berechnungskosten für den letztgenannten Prozess erhöht werden.
  • Es ist ersichtlich, dass das Verfahren der japanischen ungeprüften Patent-Veröffentlichungsschrift (Kokai) Nr. 6-165036 die zweidimensionalen Positionen der Artikel mit verschiedenen Höhen oder Orientierungen basierend auf dem zweidimensionalen Bild erkennt. In dem Verfahren ist es jedoch notwendig, einen Maskenabgleich auszuführen, wobei die Maske in verschiedene Größen vergrößert oder verkleinert werden muss. Ein derartiges Verfahren benötigt Zeit und es ist schwierig, einen praktikablen Entnahmevorgang aufzuführen.
  • Abriss der Erfindung
  • Eine Aufgabe der vorliegenden Erfindung ist es, eine Erkennungsvorrichtung und ein Erkennungsverfahren bereitzustellen, das die voranstehend beschriebenen Probleme löst und die dreidimensionale Position und Orientierung eines Artikels mit geringen Berechnungskosten erkennt, so dass die Vorrichtung und das Verfahren in einer beweglichen, integralen Vorrichtung zum Einsatz kommen können, die in einer Fabrik eingesetzt wird.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung wird eine Erkennungsvorrichtung zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels bereitgestellt, wobei die Erkennungsvorrichtung umfasst: eine Kamera, die ein zweidimensionales Bild einer Gesamtregion aufnimmt, in der eine Vielzahl von Artikel derselben Art wahllos platziert ist; einen Feldsensor, der eine dreidimensionale Information eines Bereichs erfasst, der im Wesentlichen der gleiche wie der der Region der Kamera ist; und einen Informationsprozessor, der das von der Kamera aufgenommene zweidimensionale Bild und die von dem Feldsensor erfasste dreidimensionale Information verarbeitet, wobei der Informationsprozessor umfasst: einen Suchzustand-Einstellabschnitt, der eine Region zum Suchen eines Bildes des Artikels in dem zweidimensionalen Bild als Suchzustand basierend auf der dreidimensionalen Information einstellt; einen Ermittlungsabschnitt für eine zweidimensionalen Position, der ein Bild des Artikels durch Bildbearbeitung des zweidimensionalen Bildes unter dem eingestellten Suchzustand erfasst und die zweidimensionale Positionsinformation des Artikels auf dem zweidimensionalen Bild ermittelt; einen Sichtlinien-Berechnungsabschnitt, der eine Sichtlinie, die sich von der Kamera zu dem Artikel erstreckt, in einem dreidimensionalen Raum basierend auf der ermittelten zweidimensionalen Positionsinformation berechnet; einen Auswahlabschnitt für die dreidimensionalen Punktdaten, der erste dreidimensionale Punktdaten auswählt, die zum Erkennen einer dreidimensionalen Position und Orientierung des Artikels von der dreidimensionalen Information basierend auf der ermittelten zweidimensionalen Positionsinformation oder der Sichtlinie verwendet wird; und einen Berechnungsabschnitt für eine dreidimensionale Position und Orientierung, der die Position und/oder die Orientierung des Artikels, basierend auf den ausgewählten ersten dreidimensionalen Punktdaten und der Sichtlinie berechnet.
  • Gemäß einer bevorzugten Ausführungsform wird der Feldsensor von wenigstens einer Kamera und einer Vorrichtung zum Projizieren eines Musterlichts gebildet, wobei die wenigstens eine Kamera des Feldsensors als Kamera zum Aufnehmen des zweidimensionalen Bildes verwendet wird.
  • Gemäß einer weiteren bevorzugten Ausführungsform wird der Feldsensor von einer Vielzahl von Kameras und einer Vorrichtung zum Projizieren eines Musterlichts gebildet, wobei das Musterlicht nur verwendet wird, dieselben zu messenden Objekte zwischen den von der Vielzahl der Kameras aufgenommenen Bildern einander zuzuordnen.
  • Gemäß einer weiteren Ausführungsform wird der Feldsensor von wenigstens einer Kamera und einer Vorrichtung zum Projizieren eines Musterlichts gebildet, wobei ein Infrarotlicht als Lichtquelle für das Musterlicht verwendet wird.
  • Der Suchzustand-Einstellabschnitt ist gemäß einer bevorzugten Ausführungsform dazu ausgebildet, zweite dreidimensionale Punktdaten auszuwählen, wobei ein Höhenwert von der von dem Feldsensor erhaltenen dreidimensionalen Information größer als ein vorbestimmter Wert ist, eine Region auf dem von der Kamera aufgenommenen zweidimensionalen Bild festzulegen, die einem die zweiten dreidimensionalen Daten enthaltenden Raum entspricht; und einen Bereich zum Suchen des Artikels auf dem zweidimensionalen Bild innerhalb der bestimmten Region zu begrenzen. In diesem Fall kann der Suchzustand-Einstellabschnitt einen Bereich einer passenden Größe des zu suchenden Artikels auf dem zweidimensionalen Bild basierend auf einem Höhenwert begrenzen, der durch den vorbestimmten Wert oder einen Bereich von Werten einer Höhe eines die ausgewählten zweiten dreidimensionalen Punktdaten enthaltenden Raumes ermittelt wird.
  • Gemäß einer bevorzugten Ausführungsform ist der Suchzustand-Einstellabschnitt dazu ausgebildet, eine ebene Fläche, eine gekrümmte Fläche oder eine Kombination davon von der von dem Feldsensor erfassten dreidimensionalen Information zu extrahieren, die zweiten dreidimensionalen Punktdaten auszuwählen, die der extrahierten ebenen Fläche, der gekrümmten Fläche oder der Kombination davon entsprechen, eine Region auf dem von der Kamera aufgenommenen zweidimensionalen Bild festzulegen, die einem die zweiten dreidimensionalen Punktdaten enthaltenden Raum entspricht, und einen Bereich zum Suchen der Artikel auf dem zweidimensionalen Bild innerhalb des festgelegten Bereichs zubegrenzen. In diesem Fall kann der Suchzustand-Einstellabschnitt ferner einen Bereich einer passenden Größe des zu suchenden Artikels auf dem zweidimensionalen Bild basierend auf einem Bereich der Werte einer Höhe der ausgewählten zweiten dreidimensionalen Punktdaten begrenzen.
  • Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung wird ein Erkennungsverfahren zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels bereitgestellt, wobei das Verfahren die Schritte umfasst: Erhalten eines zweidimensionalen Bildes einer Gesamtregion mittels einer Kamera, in der eine Vielzahl von Artikeln derselben Art wahllos platziert sind; Erhalten von dreidimensionaler Information eines Bereichs mittels eines Feldsensors, der im Wesentlichen der selbe ist wie die Region der Kamera; Einstellen einer Region zum Suchen eines Bildes des Artikels in dem zweidimensionalen Bild als einen Suchzustand basierend auf der dreidimensionalen Information; Erfassen eines Bildes des Artikels durch Bildbearbeitung des zweidimensionalen Bildes unter dem eingestellten Suchzustand, und Erhalten von zweidimensionaler Positionsinformation des Artikels auf dem zweidimensionalen Bild; Berechnen einer Sichtlinie in einem dreidimensionalen Raum, die sich von der Kamera zu dem Artikel erstreckt, basierend auf der erhaltenen zweidimensionalen Positionsinformation; Auswählen von ersten dreidimensionalen Punktdaten, die zum Erkennen einer dreidimensionalen Position und Orientierung des Artikels von der dreidimensionalen Information basierend auf der erhaltenen zweidimensionalen Positionsinformation oder der Sichtlinie verwendet werden; und Berechnen von der Position und/oder der Orientierung des Artikels basierend auf den ausgewählten ersten dreidimensionalen Punktdaten und der Sichtlinie.
  • Gemäß einer bevorzugten Ausführungsform umfasst der Schritt des Einstellens eines Suchzustands: Auswählen von zweiten dreidimensionalen Punktdaten, wobei ein Höhenwert von der von dem Feldsensor erhaltenen dreidimensionalen Information größer als ein vorbestimmter Wert ist; Festlegen einer Region auf dem von der Kamera erhaltenen zweidimensionalen Bild, die einem die zweiten dreidimensionalen Punktdaten enthaltenden Raum entspricht; und Begrenzen eines Bereichs zum Suchen des Artikels auf dem zweidimensionalen Bild innerhalb der festgelegten Region. In diesem Fall kann der Schritt zum Einstellen des Suchzustands ferner aufweisen: Begrenzen eines Bereichs einer passenden Größe des zu suchenden Artikels auf dem zweidimensionalen Bild basierend auf einem von dem vorbestimmten Wert festgelegten Höhenwert oder einem Bereich von Werten einer Höhe eines die ausgewählten, zweiten dreidimensionalen Punktdaten enthaltenden Raumes.
  • Der Schritt des Einstellens eines Suchzustandes umfasst gemäß einer bevorzugten Ausführungsform: Extrahieren einer ebenen Fläche, einer gekrümmten Fläche oder einer Kombination davon von der von dem Feldsensor erhaltenen dreidimensionalen Information; Auswählen der zweiten dreidimensionalen Punktdaten, die der extrahierten ebenen Fläche, der gekrümmten Fläche oder der Kombination davon entsprechen; Festlegen einer Region auf dem von der Kamera erhaltenen zweidimensionalen Bild, die einem die zweiten dreidimensionalen Punktdaten enthaltenden Raum entspricht, und Begrenzen eines Bereichs zum Suchen des Artikels auf dem zweidimensionalen Bild innerhalb des festgelegten Bereichs. In diesem Fall kann der Schritt zum Einstellen eines Suchzustandes ferner aufweisen: Begrenzen eines Bereichs einer passenden Größe des zu suchenden Artikels auf dem zweidimensionalen Bild, basierend auf einem Bereich von Werten einer Höhe der ausgewählten zweiten dreidimensionalen Punktdaten.
  • Kurzbeschreibung der Figuren
  • Die voranstehenden und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden von der folgenden Beschreibung der bevorzugten Ausführungsformen mit Bezug auf die beigefügten Figuren ersichtlich, wobei:
  • 1 eine Darstellung einer schematischen Anordnung eines Robotersystems mit einer Erkennungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung ist;
  • 2 ein Flussdiagramm zur Erklärung eines Prozesses eines Erkennungsverfahrens der Erfindung ist;
  • 3 ein Beispiel eines einen Artikel umfassenden zweidimensionalen Bildes ist, das von einer Kamera erhalten wird;
  • 4 eine Querschnittsansicht entlang der Schnittlinie A-A' gemäß 3 ist;
  • 5 ein Beispiel eines von der Kamera aufgenommenen zweidimensionalen Bildes ist, wobei eine Suchregion durch die weiße Farbe und ein weitere Region durch die schwarze Farbe dargestellt ist; und
  • 6 ein Beispiel zum Berechnen einer Sichtlinie ist, die sich von einem Fokuspunkt der Kamera zu dem Artikel erstreckt.
  • Detaillierte Beschreibung
  • 1 ist eine Ansicht, die eine schematische Anordnung eines Robotersystems 10 mit einer Erkennungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. Das Robotersystem 10 umfasst einen Roboter 12, eine Robotersteuerung 14 zum Steuern des Roboters 12, einen mit der Robotersteuerung 14 verbundenen Informationsprozessor 16, einen Feldsensor 18 und eine Kamera 20, wobei der Feldsensor und die Kamera mit dem Informationsprozessor 16 verbunden sind. Das Robotersystem 10 kann zum Entnehmen eines Artikels aus einem Behälter 24 verwendet werden, in dem eine Vielzahl von Artikeln 22 derselben Art wahllos platziert sind.
  • Der Roboter 12 hat einen bewegbaren Abschnitt, wie einen Roboterarm 26, und einen Artikelgreifarmabschnitt wie beispielsweise die an einem vorderen Ende des Roboterarms 26 angebrachte Roboterhand 28. Die Roboterhand 28 ist zum Greifen der Artikel 22 in dem Behälter 24 ausgebildet.
  • Der Feldsensor 18 kann dreidimensionale Informationen des Artikels 22 in den Behälter 24 erfassen und die Kamera 20 kann ein zweidimensionales Bild des Artikels 22 in dem Behälter 24 erhalten oder aufnehmen. Die erhaltenen dreidimensionale Information und das zweidimensionale Bild werden an den Informationsprozessor 16 übertragen und von dem Informationsprozessor verarbeitet. Es ist zu bevorzugen, dass der Feldsensor 18 und die Kamera 20 derart angeordnet sind, dass ein Messbereich des Feldsensors 18 und ein Sichtfeld der Kamera 20 im Wesentlichen dem Bereich entsprechen, der von dem die Artikel 22 enthaltenden Behälter 24 eingenommen wird. In der dargestellten Ausführungsform sind der Feldsensor 18 und die Kamera 20 an einer dafür bestimmten Halterung 30 angebracht. Der Feldsensor und/oder die Kamera 20 können jedoch an dem vorderen Ende des Roboters 12 angebracht sein.
  • Der Informationsprozessor 16 und die Robotersteuerung 14 sind miteinander über ein Kommunikationsmittel wie ein Kommunikationskabel verbunden, das eine Kommunikation untereinander zulässt. In der dargestellten Ausführungsform ist der Informationsprozessor 16 getrennt von der Robotersteuerung 14 dargestellt. Der Informationsprozessor 16 kann jedoch in die Robotersteuerung 14 integriert werden.
  • Als Feldsensor 18 können verschiedene Typen verwendet werden. Beispielsweise können Sensoren verwendet werden, die: ein Laserschlitzlicht scannen; einen Artikel mit einem Laserpunktlicht scannen; ein bekanntes Musterlicht auf den Artikel unter Verwendung einer Vorrichtung wie einen Projektor projizieren, eine Flugzeit von der Projizierung des Lichts mittels des Projektors bis zu dem Empfang des Lichts durch einen Empfänger verwenden, nachdem das Licht von einer Fläche des Artikels reflektiert würde. Zum Projizieren eines Musterlichts auf den Artikel kann eine Lichtquelle mit einer Ausstoßröhre (typischerweise einer Hochdruckquecksilberlampe) oder eineanderen Lichtquelle wie eine Festzustand-Lichtquelle (typischerweise eine Laserdiode oder eine LED) verwendet werden. Ferner kann ein nicht-sichtbares Licht beispielsweise von einer Infrarotlichtquelle verwendet werden, wodurch die Messung ohne Beeinflussung durch das Umgebungslicht ausgeführt werden kann.
  • Wenn eine Kamera Bestandteil des Feldsensors 18 ist, kann die Kamera ebenfalls als Kamera 20 zum Aufnehmen des zweidimensionalen Bildes, wie voranstehend beschrieben wurde, verwendet werden. Der Feldsensor kann von zwei Kameras und einem Projektor gebildet werden, und eine der beiden Kameras kann zum Aufnehmen des zweidimensionalen Bildes verwendet werden. Im wesentlichen hat der Projektor eine kürzere Lebensdauer als die Kamera und daher muss der Projektor periodisch mit einem anderen während einer Langzeitverwendung ersetzt werden. Durch die Bildung des Feldsensors mittels zweier Kameras und durch Verwendung eines von dem Projektor projizierten Musterlichts, das nur zur Zuordnung derselben zu messenden Objekte zwischen den von den beiden Kameras aufgenommenen Bildern verwendet wird, muss der Projektor nicht kalibriert werden, und der Projektor kann einfach durch einen anderen Projektor ersetzt werden.
  • Herkömmlicherweise stellt der Feldsensor die erhaltene dreidimensionale Information als ein Abstandsbild oder eine dreidimensionale Karte dar. Abstandsbild bedeutet in diesem Zusammenhang ein Bild, das die dreidimensionale Information innerhalb eines gemessenen Bereichs darstellt. In vielen Fällen stellt die Helligkeit und die Farbe jedes Pixels die Höhe und den Abstand von dem Feldsensor dar. Unter einer dreidimensionalen Karte ist andererseits zu verstehen, dass die dreidimensionale Information innerhalb des gemessenen Bereichs einen Satz von Koordinaten (x, y, z) der gemessenen dreidimensionalen Punkte darstellt. Gemäß der vorliegenden Erfindung wird unabhängig von der Darstellungsweise, die von dem Feldsensor erhaltene Information als ”dreidimensionale Information” bezeichnet, und wenigstens ein Element, das die dreidimensionale Information (das heißt, jedes Pixel in dem Abstandsbild oder die dreidimensionale Punkte in der dreidimensionalen Karte) wird als ”dreidimensionale Punktdaten” bezeichnet.
  • Im Folgenden wird das Verfahren gemäß der Erfindung zum Erkennen der dreidimensionalen Position und Orientierung des Artikels mit Bezug auf ein Flussdiagramm gemäß 2 erläutert.
  • Zunächst wird ein zweidimensionales Bild einer Gesamtregion, in dem eine Vielzahl von Artikel wahllos platziert sind, von der Kamera 20 (Schritt S1) erhalten, und eine dreidimensionale Information der im Wesentlichen selben Region wie dem der Kamera 20 wird von dem Feldsensor 18 erhalten. In diesem Zusammenhang kann entweder das zweidimensionale Bild oder die dreidimensionale Information zuerst erhalten werden. Anders ausgedrückt, können die Schritte S1 und S2 getauscht werden.
  • 3 zeigt ein Beispiel des von der Kamera 20 erhaltenen zweidimensionalen Bildes, und 4 stellt eine Querschnittsansicht entlang der Linie A-A gemäß 3 dar. Die schwarzen Punkte 32 in 4 stellen die von dem Feldsensor 18 gemessenen dreidimensionalen Daten dar.
  • Im Anschluss daran wird von der von dem Feldsensor 18 erhaltenen dreidimensionalen Information ein Raum, in dem ein zu entnehmende Artikel angenommen wird, grob als ein Zielraum (Schritt S3) begrenzt. Wenn eine Vielzahl von Artikeln wahllos platziert sind, wird der sich in einem oberen Bereich befindende Artikel bevorzugt entnommen. Es ist daher zu bevorzugen, einen Bereich in einem höheren Niveau oder in der Nähe der Kamera als Zielraum zu begrenzen.
  • Zum Begrenzen des Zielraums sind folgende Verfahren möglich. Beispielsweise können die dreidimensionalen Punktdaten an einer Position, die höher als eine vorbestimmte Höhe (oder nahe der Kamera) sind, von der erhaltenen dreidimensionalen Information gesucht werden, und ein Raum nahe dieser Daten kann als Zielraum begrenzt werden. Alternativ ist es möglich, eine Vielzahl von dreidimensionalen Daten, die höher als eine vorbestimmte Höhe (oder nahe der Kamera) sind, auszuwählen, und der Zielraum kann als logische Addition (OR) der Räume nahe den entsprechenden Daten berechnet werden. Ferner ist es alternativ möglich, einen Durchschnitt oder einen Meridianwert der Höhen der dreidimensionalen Punktdaten (oder der Abstände von der Kamera) zu berechnen, die von der erhaltenen dreidimensionalen Information umfasst sind, und einen Raum nahe des Durchschnitts oder des Meridianwerts als Zielraum zu begrenzen. Alternativ kann eine flache Fläche, eine gekrümmte Fläche oder eine Kombination davon mit einem bestimmten Flächenbereich von der erhaltenen dreidimensionalen Information erfasst werden und ein die erfasste flache Fläche, die erfasste gekrümmte Fläche oder die erfasste Kombination davon kann als Zielraum begrenzt werden. Ferner kann alternativ ein Raum nahe der höchsten Position des in einer vorherigen Erkennung erkannten Artikels oder dem Durchschnitt oder dem Meridianwert der Höhen der Artikel als Zielraum begrenzt werden, wenn die Erkennung der dreidimensionalen Position und Orientierung des Artikels und die Entnahme der Artikel durch einen Roboter wiederholt ausgeführt wird.
  • Basierend auf den begrenzten Zielraum wird als nächstes ein Suchzustand zum Suchen des Artikels durch eine zweidimensionale Bildverarbeitung eingestellt (Schritt S4). Suchzustand bedeutet in diesem Zusammenhang eine Region zum Erfassen des Artikels auf dem von der Kamera 20 erhaltenen zweidimensionalen Bild oder einen Bereich einer passenden Größe des zu erfassenden Artikels auf dem zweidimensionalen Bild.
  • Im Folgenden wird der voranstehend genannte Suchzustand im Detail erläutert. Durch Projizieren eines beliebigen dreidimensionalen Punktes auf eine Licht aufnehmende Fläche der Kamera basierend auf Kalibrierungsdaten der Kamera kann berechnet werden, wo auf dem zweidimensionalen Bild der dreidimensionale Punkt ein Bild bildet. Derartige Verfahren sind aus der Nicht-Patentliteratur und hier aus dem Dokument von Tsai et al. Bekannt (Titel: An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision, Proc. Computer Vision and Pattern Recognition, '86, Seiten 364–374, 1986). Gemäß der vorliegenden Erfindung wird durch Projizieren der dreidimensionalen Punktdaten in dem in Schritt S3 begrenzten Raum auf die Lichtempfangsfläche der Kamera, basierend auf den Kalibrierungsdaten der Kamera 20, eine Region auf dem zweidimensionalen Bild eingegrenzt, in der der Artikel in dem Raum ein Bild bilden kann.
  • Beispielsweise kann, wenn die in 4 gezeigten dreidimensionalen Punktdaten 32 erhalten werden, ein Scheitelpunkt (oder ein lokaler Maximalpunkt eines Abschnitts, in dem die Höhe lokal groß ist) von der dreidimensionalen Information innerhalb des Behälters 24 erfasst werden. Bei einem Bereich nahe der Höhe des erfassten Scheitelpunkts wird ein Bereich 34 des zu dem begrenzten Raum korrespondierenden zweidimensionalen Bildes durch weiße Farbe dargestellt, und ein anderer Bereich 36 als der Bereich 34 wird durch schwarze Farbe, wie in 5 gezeigt, dargestellt. Der weiße Bereich 34 wird als Suchzustand zum Suchen des Bildes des Artikels durch die zweidimensionale Bearbeitung eingestellt.
  • Eine passende Größe des Artikels auf dem zweidimensionalen Bild ist proportional zu dem Kehrwert des Abstandes von der Kamera zu dem Artikel. Basierend auf Maximal- und Minimalwerten der Höhenwerte (oder dem Abstand von der Kamera) der dreidimensionalen Punktdaten, die in dem begrenzten Bereich umfasst sind, und basierend auf der Höhe (oder dem Abstand zu der Kamera) der Artikel kann, wenn eine zur zweidimensionalen Bildbearbeitung verwendete Maske eingelernt wird, ein Bereich einer Größe der Artikels innerhalb des Raums, der auf dem zweidimensionalen Bild dargestellt werden wird, als Suchzustand eingestellt werden.
  • Alternativ kann ein zu dem begrenzten Raum korrespondierender Bereich auf dem zweidimensionalen Bild in eine Vielzahl von Segmente unterteilt werden, und verschiedene Bereiche können für jedes Segment als Suchzustand eingestellt werden. Ferner kann alternativ ein Bereich mit einer Größe, die basierend auf dem Durchschnitt oder dem Meridianwert der Höhen der in vorangegangenen Erkennungen erkannten Artikel berechnet wird, als Suchzustand eingestellt werden, wenn die Erkennung der dreidimensionalen Position und Orientierung der Artikel und das Entnehmen der Artikel mittels eines Roboters wiederholt ausgeführt wird.
  • Basierend auf dem eingestellten Suchzustand wird als nächstes ein Bild des Artikels mittels der zweidimensionalen Bildverarbeitung erfasst (Schritt S5) und die zweidimensionale Positionsinformation (zum Beispiel X-Y-Koordinaten) auf dem Bild des Artikels wird erhalten (Schritt S6). In diesem Zusammenhang können beliebige zweidimensionale Bildbearbeitungen, wie zum Beispiel das bekannte Maskenabgleichen, verwendet werden. Wenn die Darstellung eines Artikels auf dem Bild sich aufgrund seiner verschiedenen Seiten unterscheidet, oder wenn eine Vielzahl von Artikeln verschiedene Formen haben, kann eine Vielzahl von Masken zum Ausführen des Abgleichs entsprechend bereitgestellt werden.
  • Unter Verwendung der erhaltenen zweidimensionalen Positionsinformation werden erste dreidimensionale Punktdaten (oder Datenaggregate) ausgewählt (Schritt S7), die zur Erkennung der dreidimensionalen Position und Orientierung des Artikels verwendet werden. Wie beispielsweise in 6 dargestellt ist, wird jeder der dreidimensionalen Punktdaten 32, der in der dreidimensionalen Information enthalten ist, auf eine Lichtempfangsfläche 38 der Kamera 20 basierend auf den Kalibrierungsdaten der Kamera 20 projiziert. Wenn eine projizierter Punkt 32', der auf die Lichtempfangsfläche 38 projiziert wird, in eine Maske 40 projiziert wird, die dem durch die zweidimensionale Bildverarbeitung erfassten Artikel entspricht, kann erkannt werden, dass die dreidimensionalen Punktdaten auf dem durch die zweidimensionale Bildverarbeitung erfassten Artikel positioniert sind.
  • Andererseits kann basierend auf den Kalibrierungsdaten der Kamera 20 eine Vielzahl von dreidimensionalen Geraden berechnet werden, die sich von einer Vielzahl von Punkten an einer Grenzlinie der Maske zu einem Fokuspunkt der Kamera 20 erstrecken, wobei die Maske dem durch die zweidimensionale Bildverarbeitung erfassten Artikel entspricht. Unter den in der dreidimensionalen Information enthaltenen dreidimensionalen Punktdaten können die dreidimensionalen Punktdaten innerhalb einer von den berechneten Geraden gebildeten Petrosa als dreidimensionale Punktdaten ausgewählt werden, die zur Erkennung der dreidimensionalen Position und Orientierung des Artikels verwendet werden.
  • Basierend auf der zweidimensionalen Positionsinformation, die in Schritt S6 erhalten wird, und den Kalibrierungsdaten der Kamera 20 wird eine Sichtlinie in dem dreidimensionalen Raum berechnet (Schritt S8), die sich von einem Linsenmittelpunkt der Kamera 20 zu einer dreidimensionalen Position erstreckt, die der zweidimensionalen Position des Artikels entspricht.
  • Schließlich wird basierend auf den ersten dreidimensionalen Punktdaten des ausgewählten Artikels und der in Schritt S8 berechneten Sichtlinie wenigstens eine dreidimensionale Position und Orientierung des Artikels berechnet (Schritt S9). Eine ungefähre Ebene kann beispielsweise durch Anlegen einer Ebene an den dreidimensionalen Punktdaten des ausgewählten Artikels berechnet werden. Ein Schnittpunkt zwischen der berechneten ungefähren Ebene und der Sichtlinie kann berechnet werden, und der berechnete Schnittpunkt kann als dreidimensionale Position ermittelt werden, die den Artikel darstellt. In diesem Fall kann, wenn eine Neigung des Artikels berechnet wird, die Information der ungefähren Ebene in einer Normalrichtung verwendet werden. Wenn die Richtung (ein Rotationswinkel um die Normallinie) des Artikels berechnet wird, kann die Richtung der auf dem zweidimensionalen Bild erfassten Maske verwendet werden. Ferner kann, wenn die Form des Artikels durch eine Funktion (die nicht auf eine Ebene beschränkt ist) dargestellt wird, die dreidimensionale Position und Orientierung des Artikels durch Anwenden der Funktion an den dreidimensionalen Punktdaten des ausgewählten Artikels berechnet werden.
  • Alternativ kann, wenn die Form des Artikels als eine dreidimensionale Form wie beispielsweise durch dreidimensionale CAD-Daten vorbestimmt ist, der Abgleich zwischen den dreidimensionalen Punktdaten, die als gegeben angenommen werden, auf dem Artikel und der dreidimensionalen Form des Artikels ausgeführt werden. Selbst beim Abgleich der dreidimensionalen CAD-Daten, ist die dreidimensionale Information als Gegenstand des Abgleichs beschränkt, und der Abgleich kann in einer signifikant kurzen Zeit im Vergleich zu dem Fall ausgeführt werden, in dem die Position und die Orientierung für den Abgleich auf dem gesamten Sichtfeld gesucht werden müssen.
  • Wie voranstehend beschrieben wurde, können gemäß der vorliegenden Erfindung die dreidimensionale Position und die Orientierung des Artikels durch das nachstehend beschriebene Verfahren erkannt werden.
    • (1) Zuerst wird mittels einer Kamera ein zweidimensionales Bild einer Gesamtregion erhalten, in der eine Vielzahl von Artikeln wahllos platziert sind, und eine dreidimensionale Information der im Wesentlichen selben Region wie der der Kamera wird mittels eines Feldsensors erhalten.
    • (2) Im Folgenden wird von der von dem Feldsensor erhaltenen dreidimensionalen Information ein Raum grob begrenzt, in dem ein zu entnehmender Artikel angenommen wird. Im Allgemeinen ist der in einem oberen Bereich vorliegende Artikel bei der Entnahme zu bevorzugen, wenn eine Vielzahl von Artikel beliebig platziert ist. Daher wird beispielsweise ein Raum an einem höheren Niveau begrenzt.
    • (3) Basierend auf den begrenzten Raum wird ein Suchzustand zum Suchen des Artikels mittels einer zweidimensionalen Bildverarbeitung eingestellt. In diesem Zusammenhang ist der Suchzustand eine Region zum Erfassen des Artikels auf dem zweidimensionalen Bild oder ein Bereich einer passenden Größe der zu erfassenden Artikel. Beispielsweise kann durch Projizieren eines Punktes innerhalb des begrenzten Raums auf einer Lichtempfangsfläche der Kamera basierend auf den Kalibrierungsdaten der Kamera, der Suchbereich in der Region des zweidimensionalen Bildes begrenzt werden, die dem begrenzten Raum entspricht. Andererseits kann basierend auf dem Abstand zwischen dem Punkt innerhalb des begrenzten Raums und der Kamera, der Bereich einer passenden Größe der Artikel begrenzt werden, der auf das zweidimensionale Bild projiziert wird.
    • (4) Als nächstes wird eine zweidimensionale Bildverarbeitung basierend auf dem eingestellten Suchzustand ausgeführt, wodurch eine zweidimensionale Positionsinformation auf dem Bild des Artikels erhalten wird. Eine bekannte zweidimensionale Bildverarbeitung, wie ein Maskenabgleich, kann verwendet werden. Da der Suchzustand im Voraus begrenzt wird, kann die Verarbeitung in einer sehr kurzen Zeit ausgeführt werden.
    • (5) Unter Verwendung der zweidimensionalen Positionsinformation werden die dreidimensionalen Punktdaten ausgewählt, die zur Erkennung der dreidimensionalen Position und die Orientierung verwendet werden. Beispielsweise werden alle dreidimensionalen Punktdaten, die in der dreidimensionalen Region enthalten sind, basierend auf den Kalibrierungsdaten der Kamera auf die Lichtempfangsfläche der Kamera projiziert. Dann wird, wenn die Punktdaten in eine durch die zweidimensionale Bildverarbeitung erfasste Maskenregion projiziert werden, festgestellt, dass die dreidimensionalen Punktdaten auf einem durch die zweidimensionale Bildverarbeitung erfassten Artikel positioniert sind.
    • (6) Schließlich wird basierend auf der zweidimensionalen Positionsinformation und den Kalibrierungsdaten der Kamera eine Sichtlinie in dem dreidimensionalen Raum berechnet, die sich von einem Linsenmittelpunkt der Kamera zu dem Artikel erstreckt. Dann wird die dreidimensionale Position und/oder die Orientierung des Artikels basierend auf der Sichtlinie und den ausgewählten dreidimensionalen Punktdaten berechnet, die als für den Artikel zutreffend angenommen werden.
  • Gemäß der vorliegenden Erfindung wird ein Suchzustand zum Erfassen der zweidimensionalen Position des Artikels basierend auf der dreidimensionalen Position eingestellt. Die dreidimensionalen Punktdaten zur Berechnung der Position und Orientierung des Artikels in dem dreidimensionalen Raum werden basierend auf der zweidimensionalen Positionsinformation des Artikels ausgewählt, die in dem eingestellten Suchzustand erfasst wurden. Die Verarbeitung des zweidimensionalen Bildes und der dreidimensionalen Information kann mit geringen Berechnungskosten ausgeführt werden, und die dreidimensionale Position und die Orientierung des Artikels können effektiv berechnet werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 7-270137 [0004]
    • JP 9-196636 [0005]
    • JP 2005-62063 [0006]
    • JP 2004-272841 [0007, 0012]
    • JP 2009-128191 [0008, 0011]
    • JP 2004-144557 [0009, 0013, 0013]
    • JP 6-165036 [0010, 0013, 0014]
  • Zitierte Nicht-Patentliteratur
    • Tsai et al. Bekannt (Titel: An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision, Proc. Computer Vision and Pattern Recognition, '86, Seiten 364–374, 1986) [0045]

Claims (13)

  1. Erkennungsvorrichtung zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels, umfassend: eine Kamera (20), die ein zweidimensionales Bild einer Gesamtregion aufnimmt, in der eine Vielzahl von Artikeln (22) derselben Art wahllos platziert ist; einen Feldsensor (18), der eine dreidimensionale Information eines Bereichs ermittelt, welcher im Wesentlichen derselbe ist wie der der Region der Kamera (20); und einen Informationsprozessor (16), der das von der Kamera (20) aufgenommene zweidimensionale Bild und die von dem Feldsensor (18) ermittelte dreidimensionale Information verarbeitet, wobei der Informationsprozessor (16) aufweist: einen Suchzustand-Einstellabschnitt, der eine Region zum Suchen eines Bildes des Artikels in dem zweidimensionalen Bild als einen Suchzustand basierend auf der dreidimensionalen Information einstellt; einen Ermittlungsabschnitt für eine zweidimensionale Position, der ein Bild des Artikels durch eine Bildverarbeitung des zweidimensionalen Bildes unter dem eingestellten Suchzustand erfasst und eine zweidimensionale Positionsinformation des Artikels auf dem zweidimensionalen Bild ermittelt; einen Sichtlinien-Berechnungsabschnitt, der basierend auf der ermittelten zweidimensionalen Positionsinformation eine Sichtlinie in einem dreidimensionalen Raum berechnet, die sich von der Kamera (20) zu dem Artikel (22) erstreckt; einen Auswahlabschnitt für dreidimensionale Punktdaten, der erste dreidimensionale Punktdaten, die zum Erkennen einer dreidimensionalen Position und Orientierung des Artikels verwendet werden, von der dreidimensionalen Information basierend auf den erhaltenen zweidimensionalen Positionsinformation oder der Sichtlinie auswählt; und einen Berechnungsabschnitt für die dreidimensionale Position und Orientierung, der wenigstens die Position und/oder die Orientierung des Artikels basierend auf den ausgewählten ersten dreidimensionalen Punktdaten und der Sichtlinie berechnet.
  2. Erkennungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Feldsensor (18) von wenigstens einer Kamera oder einer Vorrichtung zum Projizieren eines Musterlichts gebildet wird, und wobei die wenigstens eine Kamera des Feldsensors (18) als Kamera zum Aufnehmen des zweidimensionalen Bildes verwendbar ist.
  3. Erkennungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Feldsensor (18) von einer Vielzahl von Kameras und einer Vorrichtung zum Projizieren eines Musterlichts gebildet wird, und wobei das Musterlicht nur verwendet wird, um dieselben zu messenden Objekte zwischen den von der Vielzahl der Kameras aufgenommenen Bildern einander zuzuordnen.
  4. Erkennungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Feldsensor (18) von wenigstens einer Kamera und einer Vorrichtung zum Projizieren eines Musterlichts gebildet wird, und wobei ein Infrarotlicht als Lichtquelle für das Musterlicht verwendbar ist.
  5. Erkennungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Suchzustand-Einstellabschnitt dazu ausgebildet ist, zweite dreidimensionale Punktdaten von der von dem Feldsensor (18) ermittelten dreidimensionalen Information auszuwählen, wobei ein Höhenwert größer als ein vorbestimmter Wert ist; eine Region auf dem von der Kamera aufgenommenen, zweidimensionalen Bild zu ermitteln, die mit einem die zweiten dreidimensionalen Punktdaten enthaltenden Raum korrespondiert; und einen Bereich zum Suchen des Artikels in dem zweidimensionalen Bild innerhalb der ermittelten Region zu begrenzen.
  6. Erkennungsvorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass der Suchzustand-Einstellabschnitt ferner einen Bereich einer passenden Größe des zu suchenden Artikels auf dem zweidimensionalen Bild basierend auf dem durch den vorbestimmten Wert festgelegten Höhenwert oder einem Bereich von Werten der Höhe eines Raumes begrenzt, der die ausgewählten zweiten dreidimensionalen Punktdaten enthält.
  7. Erkennungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Suchzustand-Einstellabschnitt dazu ausgebildet ist, eine ebene Fläche, eine gekrümmte Fläche oder eine Kombination davon von der von dem Feldsensor (18) erhaltenen dreidimensionalen Information zu extrahieren, zweite dreidimensionale Punktdaten auszuwählen, die mit der extrahierten flachen Fläche, der gekrümmten Fläche oder der Kombination davon korrespondieren, eine Region auf dem von der Kamera (20) aufgenommenen zweidimensionalen Bild festzulegen, die zu einem die zweiten dreidimensionalen Punktdaten enthaltenden Raum korrespondiert, und einen Bereich zum Suchen des Artikels auf dem zweidimensionalen Bild innerhalb der ausgewählten Region zu begrenzen.
  8. Erkennungsvorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass der Suchzustand-Einstellabschnitt ferner einen Bereich einer passenden Größe des zu suchenden Artikels auf dem zweidimensionalen Bild basierend auf einem Bereich von Werten einer Höhe der ausgewählten zweiten dreidimensionalen Punktdaten begrenzt.
  9. Erkennungsverfahren zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels, aufweisend die Schritte von: Ermitteln eines zweidimensionalen Bildes einer Gesamtregion mittels einer Kamera (20), wobei in der Gesamtregion eine Vielzahl von Artikeln (22) derselben Art wahllos platziert ist, Ermitteln einer dreidimensionalen Information eines Bereichs mittels eines Feldsensors (18), der im Wesentlichen derselbe ist wie der der Region der Kamera (20); Einstellen einer Region zum Suchen eines Bildes des Artikels in dem zweidimensionalen Bild als einen Suchzustand basierend auf der dreidimensionalen Information; Erfassen eines Bildes des Artikels durch eine Bildverarbeitung des zweidimensionalen Bildes unter dem eingestellten Suchzustand und Ermitteln einer zweidimensionalen Positionsinformation des Artikels auf dem zweidimensionalen Bild; Berechnen einer Sichtlinie in einem dreidimensionalen Raum basierend auf der ermittelten zweidimensionalen Positionsinformation, wobei sich die Sichtlinie von der Kamera (20) zu dem Artikel (22) erstreckt; Auswählen von ersten dreidimensionalen Punktdaten, die zum Erkennen einer dreidimensionalen Position und Orientierung des Artikels verwendet werden, von der dreidimensionalen Information basierend auf der ermittelten zweidimensionalen Positionsinformation oder der Sichtlinie; und Berechnen wenigstens der Position und/oder der Orientierung des Artikels basierend auf den ausgewählten ersten dreidimensionalen Punktdaten und der Sichtlinie.
  10. Erkennungsverfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Schritt zum Einstellen des Suchzustands umfasst: Auswählen von zweiten dreidimensionalen Punktdaten von der von dem Feldsensor (18) ermittelten dreidimensionalen Information, wobei ein Höhenwert größer als ein vorbestimmter Wert ist; Festlegen einer Region auf dem von der Kamera (20) aufgenommenen zweidimensionalen Bild, das zu einem die zweiten dreidimensionalen Punktdaten enthaltenden Raum korrespondiert; und Begrenzen eines Bereichs zum Suchen des Artikels auf dem zweidimensionalen Bild innerhalb der festgelegten Region.
  11. Erkennungsverfahren nach Anspruch 10, dadurch gekennzeichnet, dass der Schritt zum Einstellen des Suchzustands ferner umfasst: Begrenzen eines Bereichs einer passenden Größe des zu suchenden Artikels auf dem zweidimensionalen Bild, basierend auf einem Höhenwert, der durch den vorbestimmten Wert oder einen Bereich von Werten einer Höhe eines Raums ermittelt wird, der die ausgewählten, zweiten dreidimensionalen Punktdaten enthält.
  12. Erkennungsverfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Schritt zum Einstellen des Suchzustands umfasst: Extrahieren einer flachen Fläche, einer gekrümmten Fläche oder einer Kombination davon von der dreidimensionalen Information, die von dem Feldsensor (18) ermittelt wurde; Auswählen von zweiten dreidimensionalen Punktdaten, die zu der extrahierten flachen Fläche, der gekrümmten Fläche oder der Kombination davon korrespondieren; Festlegen einer Region auf dem von der Kamera aufgenommenen zweidimensionalen Bild, die zu einem die zweiten dreidimensionalen Punktdaten enthaltenden Raum korrespondiert; und Begrenzen eines Bereichs zum Suchen des Artikels auf dem zweidimensionalen Bild innerhalb der festgelegten Region.
  13. Erkennungsverfahren nach Anspruch 12, dadurch gekennzeichnet, dass der Schritt zum Einstellen eines Suchzustands ferner aufweist: Begrenzen eines Bereichs einer passenden Größe des zu suchenden Artikels auf dem zweidimensionalen Bild basierend auf einem Bereich von Werten einer Höhe der ausgewählten zweiten dreidimensionalen Punktdaten.
DE102012021375.1A 2011-11-08 2012-10-31 Vorrichtung und Verfahren zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels Active DE102012021375B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-244761 2011-11-08
JP2011244761A JP2013101045A (ja) 2011-11-08 2011-11-08 物品の3次元位置姿勢の認識装置及び認識方法

Publications (2)

Publication Number Publication Date
DE102012021375A1 true DE102012021375A1 (de) 2013-05-08
DE102012021375B4 DE102012021375B4 (de) 2017-03-02

Family

ID=48129020

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012021375.1A Active DE102012021375B4 (de) 2011-11-08 2012-10-31 Vorrichtung und Verfahren zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels

Country Status (4)

Country Link
US (1) US8929608B2 (de)
JP (1) JP2013101045A (de)
CN (1) CN103085076A (de)
DE (1) DE102012021375B4 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2947604A1 (de) * 2014-05-19 2015-11-25 Rockwell Automation Technologies, Inc. Integration einer optischen bereichsüberwachung mit industriemaschinensteuerung
US9569568B2 (en) 2014-03-10 2017-02-14 Fanuc Corporation Robot simulation system which simulates takeout process of workpiece
US9625108B2 (en) 2014-10-08 2017-04-18 Rockwell Automation Technologies, Inc. Auxiliary light source associated with an industrial application
US9696424B2 (en) 2014-05-19 2017-07-04 Rockwell Automation Technologies, Inc. Optical area monitoring with spot matrix illumination
US9921300B2 (en) 2014-05-19 2018-03-20 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US20200376678A1 (en) * 2019-05-31 2020-12-03 Denso Corporation Visual servo system
DE102018202406B4 (de) * 2017-02-21 2021-03-18 Fanuc Corporation Werkstückaufnahmesystem
US11243294B2 (en) 2014-05-19 2022-02-08 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
DE102014016069B4 (de) 2013-11-05 2022-09-15 Fanuc Corporation Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012064597A2 (en) * 2010-11-09 2012-05-18 Pioneer Hi-Bred International, Inc. System and method for sensor-based feedback control of a seed conditioning and production process
US9072929B1 (en) * 2011-12-01 2015-07-07 Nebraska Global Investment Company, LLC Image capture system
JP5383836B2 (ja) * 2012-02-03 2014-01-08 ファナック株式会社 検索ウィンドウを自動的に調整する機能を備えた画像処理装置
US9472005B1 (en) * 2012-04-18 2016-10-18 Amazon Technologies, Inc. Projection and camera system for augmented reality environment
JP5469216B2 (ja) 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
CN103307987A (zh) * 2013-06-27 2013-09-18 爱司帝光电科技(苏州)有限公司 组装物的组装方法
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP2015079374A (ja) * 2013-10-17 2015-04-23 セイコーエプソン株式会社 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
JP5788461B2 (ja) 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP6271953B2 (ja) * 2013-11-05 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP5788460B2 (ja) 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
CN103925872A (zh) * 2013-12-23 2014-07-16 中国神华能源股份有限公司 一种用于获取目标物空间分布的激光扫描测量装置和方法
DE102015101079A1 (de) * 2014-01-27 2015-07-30 Cognex Corp. System und verfahren zum ermitteln von 3d-oberflächenmerkmalen und unregelmässigkeiten auf einem objekt
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
US9233469B2 (en) * 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
JP5897624B2 (ja) 2014-03-12 2016-03-30 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
EP2927945B1 (de) * 2014-04-04 2023-05-31 Nordson Corporation Röntgeninspektionsvorrichtung zum Prüfen von Halbleiterscheiben
CN103963058B (zh) * 2014-04-30 2016-01-06 重庆环视高科技有限公司 基于多方位视觉定位的机械手臂抓取控制***及方法
JP5829306B2 (ja) 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
JP6413648B2 (ja) * 2014-06-20 2018-10-31 株式会社リコー 計測システム、物体取出システム、計測方法およびプログラム
US11185985B2 (en) * 2015-01-05 2021-11-30 Bell Helicopter Textron Inc. Inspecting components using mobile robotic inspection systems
JP6140204B2 (ja) 2015-02-06 2017-05-31 ファナック株式会社 3次元センサを備えた搬送ロボットシステム
JP6512852B2 (ja) * 2015-02-10 2019-05-15 キヤノン株式会社 情報処理装置、情報処理方法
US9747512B2 (en) * 2015-06-25 2017-08-29 Toshiba Tec Kabushiki Kaisha Article recognition apparatus and image processing method for article recognition apparatus
JP6208724B2 (ja) 2015-09-09 2017-10-04 ファナック株式会社 物体の姿勢算出システム
JP6206560B2 (ja) 2015-09-28 2017-10-04 株式会社リコー システム
WO2017056479A1 (en) * 2015-09-28 2017-04-06 Ricoh Company, Ltd. System
US10025886B1 (en) 2015-09-30 2018-07-17 X Development Llc Methods and systems for using projected patterns to facilitate mapping of an environment
JP6472363B2 (ja) * 2015-10-16 2019-02-20 キヤノン株式会社 計測装置、計測方法および物品の製造方法
JP6348097B2 (ja) 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP2017103619A (ja) * 2015-12-02 2017-06-08 ソニー株式会社 制御装置、制御方法、およびプログラム
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6666764B2 (ja) * 2016-03-24 2020-03-18 シグマ株式会社 ワーク認識方法及びランダムピッキング方法
JP2017187988A (ja) * 2016-04-07 2017-10-12 東芝テック株式会社 コード認識装置
JP2017189856A (ja) 2016-04-15 2017-10-19 オムロン株式会社 アクチュエータ制御システム、アクチュエータ制御方法、情報処理プログラム、および記録媒体
JP2018027581A (ja) * 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
JP2018055429A (ja) 2016-09-29 2018-04-05 ファナック株式会社 物体認識装置および物体認識方法
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
JP2018091656A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
JP6846949B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6420404B1 (ja) * 2017-04-26 2018-11-07 ファナック株式会社 物体認識装置
CN107255463A (zh) * 2017-05-26 2017-10-17 珠海格力电器股份有限公司 定位测量装置和定位测量方法
JP2019087008A (ja) 2017-11-07 2019-06-06 東芝テック株式会社 画像処理システム及び画像処理方法
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
JP2019126875A (ja) * 2018-01-24 2019-08-01 株式会社イシダ 物品移載装置
JP2019185664A (ja) 2018-04-17 2019-10-24 トヨタ自動車株式会社 制御装置、物体検出システム、物体検出方法及びプログラム
US10529128B1 (en) * 2018-04-27 2020-01-07 Facebook Technologies, Llc Apparatus, system, and method for mapping a 3D environment
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
JP6632656B2 (ja) * 2018-05-14 2020-01-22 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
JP6988704B2 (ja) 2018-06-06 2022-01-05 トヨタ自動車株式会社 センサ制御装置、物体探索システム、物体探索方法及びプログラム
JP6606234B1 (ja) * 2018-07-13 2019-11-13 Dmg森精機株式会社 測定装置
JP7031540B2 (ja) * 2018-09-07 2022-03-08 オムロン株式会社 対象物認識装置、マニピュレータ、および移動ロボット
JP7237496B2 (ja) * 2018-09-10 2023-03-13 株式会社東芝 ピッキングシステム、情報処理装置及び情報処理プログラム
CN114721511A (zh) * 2019-04-24 2022-07-08 彼乐智慧科技(北京)有限公司 一种三维物体定位的方法及装置
JP7007324B2 (ja) * 2019-04-25 2022-01-24 ファナック株式会社 画像処理装置、画像処理方法、及びロボットシステム
US11019249B2 (en) * 2019-05-12 2021-05-25 Magik Eye Inc. Mapping three-dimensional depth map data onto two-dimensional images
CN110427823B (zh) * 2019-06-28 2021-12-21 北京大学 基于视频帧与脉冲阵列信号的联合目标检测方法与装置
JP7376268B2 (ja) * 2019-07-22 2023-11-08 ファナック株式会社 三次元データ生成装置及びロボット制御システム
US11389965B2 (en) * 2019-07-26 2022-07-19 Mujin, Inc. Post-detection refinement based on edges and multi-dimensional corners
JP7120181B2 (ja) * 2019-08-22 2022-08-17 トヨタ自動車株式会社 物体認識装置
CN112541940B (zh) * 2019-09-20 2023-09-05 杭州海康威视数字技术股份有限公司 物品检测方法及***
JP7364439B2 (ja) 2019-11-25 2023-10-18 ファナック株式会社 Tofセンサを用いた物体検出システム
CN113191174B (zh) * 2020-01-14 2024-04-09 北京京东乾石科技有限公司 物品定位方法和装置、机器人及计算机可读存储介质
US11006039B1 (en) 2020-02-13 2021-05-11 Mujin, Inc. Method and system for determining occlusion within a camera field of view
WO2021182405A1 (ja) * 2020-03-12 2021-09-16 ファナック株式会社 撮像回数を調整する距離画像撮像システム
CN112052847B (zh) * 2020-08-17 2024-03-26 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
US20240029228A1 (en) * 2020-11-10 2024-01-25 Fanuc Corporation Mask-setting device
JP2022139837A (ja) * 2021-03-12 2022-09-26 オムロン株式会社 光学式センサ、光学式センサの制御方法及び光学式センサの制御プログラム
CN113052835B (zh) * 2021-04-20 2024-02-27 江苏迅捷装具科技有限公司 一种基于三维点云与图像数据融合的药盒检测方法及其检测***
EP4120195A1 (de) 2021-07-16 2023-01-18 Carl Zeiss Vision International GmbH Verfahren, computerprogramm und system zum kalibrieren mindestens einer kamera

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06165036A (ja) 1992-11-27 1994-06-10 Fuji Photo Film Co Ltd 放射線画像の位置合せ方法
JPH07270137A (ja) 1994-02-10 1995-10-20 Fanuc Ltd スポット光走査型3次元視覚センサ
JPH09196636A (ja) 1996-01-22 1997-07-31 Mazda Motor Corp 物品形状獲得方法
JP2004144557A (ja) 2002-10-23 2004-05-20 Fanuc Ltd 3次元視覚センサ
JP2004272841A (ja) 2003-03-12 2004-09-30 Omron Corp 物体判別装置
JP2005062063A (ja) 2003-08-18 2005-03-10 Ricoh Co Ltd 物体形状測定装置
JP2009128191A (ja) 2007-11-22 2009-06-11 Ihi Corp 物体認識装置およびロボット装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4985846A (en) * 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
JPH05173644A (ja) * 1991-12-19 1993-07-13 Pioneer Electron Corp 3次元物体認識装置
JP2919284B2 (ja) * 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
JPH10118975A (ja) * 1996-10-18 1998-05-12 Komatsu Ltd ハンドリング位置認識方法および認識装置
WO2006006624A1 (ja) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. 物品保持システム、ロボット及びロボット制御方法
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
JP4309439B2 (ja) * 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
US7983487B2 (en) * 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
US8107721B2 (en) * 2008-05-29 2012-01-31 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of semi-specular objects
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP5289087B2 (ja) * 2009-02-10 2013-09-11 ファナック株式会社 ワーク取り出し装置
JP4649559B2 (ja) * 2009-03-05 2011-03-09 株式会社三次元メディア 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体
JP5282717B2 (ja) * 2009-10-19 2013-09-04 株式会社安川電機 ロボットシステム
JP2011133273A (ja) * 2009-12-22 2011-07-07 Canon Inc 推定装置及びその制御方法、プログラム
JP5725708B2 (ja) * 2009-12-24 2015-05-27 キヤノン株式会社 センサ位置姿勢計測方法
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP2011209019A (ja) * 2010-03-29 2011-10-20 Sony Corp ロボット装置及びロボット装置の制御方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06165036A (ja) 1992-11-27 1994-06-10 Fuji Photo Film Co Ltd 放射線画像の位置合せ方法
JPH07270137A (ja) 1994-02-10 1995-10-20 Fanuc Ltd スポット光走査型3次元視覚センサ
JPH09196636A (ja) 1996-01-22 1997-07-31 Mazda Motor Corp 物品形状獲得方法
JP2004144557A (ja) 2002-10-23 2004-05-20 Fanuc Ltd 3次元視覚センサ
JP2004272841A (ja) 2003-03-12 2004-09-30 Omron Corp 物体判別装置
JP2005062063A (ja) 2003-08-18 2005-03-10 Ricoh Co Ltd 物体形状測定装置
JP2009128191A (ja) 2007-11-22 2009-06-11 Ihi Corp 物体認識装置およびロボット装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tsai et al. Bekannt (Titel: An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision, Proc. Computer Vision and Pattern Recognition, '86, Seiten 364-374, 1986)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014016069B4 (de) 2013-11-05 2022-09-15 Fanuc Corporation Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
US9569568B2 (en) 2014-03-10 2017-02-14 Fanuc Corporation Robot simulation system which simulates takeout process of workpiece
DE102015002658B4 (de) 2014-03-10 2018-09-20 Fanuc Corporation Robotersimulationssystem, das einen Entnahmevorgang eines Werkstücks simuliert
EP2947604A1 (de) * 2014-05-19 2015-11-25 Rockwell Automation Technologies, Inc. Integration einer optischen bereichsüberwachung mit industriemaschinensteuerung
US9256944B2 (en) 2014-05-19 2016-02-09 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control
US9477907B2 (en) 2014-05-19 2016-10-25 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control
US9696424B2 (en) 2014-05-19 2017-07-04 Rockwell Automation Technologies, Inc. Optical area monitoring with spot matrix illumination
US9921300B2 (en) 2014-05-19 2018-03-20 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US11243294B2 (en) 2014-05-19 2022-02-08 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US9625108B2 (en) 2014-10-08 2017-04-18 Rockwell Automation Technologies, Inc. Auxiliary light source associated with an industrial application
DE102018202406B4 (de) * 2017-02-21 2021-03-18 Fanuc Corporation Werkstückaufnahmesystem
US20200376678A1 (en) * 2019-05-31 2020-12-03 Denso Corporation Visual servo system

Also Published As

Publication number Publication date
CN103085076A (zh) 2013-05-08
US20130114861A1 (en) 2013-05-09
DE102012021375B4 (de) 2017-03-02
US8929608B2 (en) 2015-01-06
JP2013101045A (ja) 2013-05-23

Similar Documents

Publication Publication Date Title
DE102012021375B4 (de) Vorrichtung und Verfahren zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE102014212304B4 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
DE102015005267B4 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
DE102015015194A1 (de) Bildverarbeitungsvorrichtung und -verfahren und Programm
DE102018108027B4 (de) Objekterfassungsvorrichtung
CN110490936B (zh) 车辆摄像头的标定方法、装置、设备及可读存储介质
DE102016013274A1 (de) Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
DE112010002174T5 (de) Verfahren und vorrichtung für ein praktisches 3d-sehsystem
DE102014016069A1 (de) Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE112014004190T5 (de) Positurschätzverfahren und Roboter
DE102008016215A1 (de) Informationsvorrichtungsbediengerät
KR102073468B1 (ko) 비전 시스템에서 컬러 이미지에 대해 컬러 후보 포즈들의 점수화를 위한 시스템 및 방법
DE102009051826A1 (de) Verfahren zum Vergleichen der Ähnlichkeit von 3D-bildlichen Objekten
DE102010002258A1 (de) Verfahren und Vorrichtung zum Bestimmen von Abständen an einem Fahrzeug
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
CN109886064B (zh) 确定可驾驶空间的边界的方法
DE102013112040A1 (de) System und Verfahren zum Auffinden von sattelpunktartigen Strukturen in einem Bild und Bestimmen von Informationen daraus
KR20180098945A (ko) 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치
WO2019098901A1 (en) Method and image processing system for facilitating estimation of volumes of load of a truck
US11562505B2 (en) System and method for representing and displaying color accuracy in pattern matching by a vision system
EP3770804A1 (de) Flurförderzeug mit einer objekterkennung
EP3625517B1 (de) Mobile plattform mit einer anordnung zur berührungslosen entfernungsbestimmung nach art des lichtschnittverfahrens
US11420855B2 (en) Object detection device, vehicle, and object detection process

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20140910

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final