DE102018112618A1 - Verfahren zur Identifikation eines Feldgeräts für eine Augmented-Reality-Anwendung - Google Patents

Verfahren zur Identifikation eines Feldgeräts für eine Augmented-Reality-Anwendung Download PDF

Info

Publication number
DE102018112618A1
DE102018112618A1 DE102018112618.2A DE102018112618A DE102018112618A1 DE 102018112618 A1 DE102018112618 A1 DE 102018112618A1 DE 102018112618 A DE102018112618 A DE 102018112618A DE 102018112618 A1 DE102018112618 A1 DE 102018112618A1
Authority
DE
Germany
Prior art keywords
field device
operating unit
reflection image
pattern
infrared radiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018112618.2A
Other languages
English (en)
Inventor
Jan Schleiferböck
Eric BIRGEL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Endress and Hauser SE and Co KG
Original Assignee
Endress and Hauser SE and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Endress and Hauser SE and Co KG filed Critical Endress and Hauser SE and Co KG
Priority to DE102018112618.2A priority Critical patent/DE102018112618A1/de
Publication of DE102018112618A1 publication Critical patent/DE102018112618A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Identifikation eines Feldgeräts (FG) der Automatisierungstechnik mittels einer Bedieneinheit (BE), wobei die Bedieneinheit (BE) eine Kamera (KA), insbesondere eine Time-of-Flight-Kamera, aufweist, umfassend:- Emittieren einer Infrarotstrahlung, wobei die Infrarotstrahlung im Wesentlichen auf zumindest ein am Feldgerät (FG) angebrachtes zweidimensionales, im Infrarotbereich reflexives Muster (MU) gerichtet ist;- Erfassen einer Reflexion der Infrarotstrahlung an dem zumindest einem reflexiven Muster (MU) mittels der Kamera (KA);- Umrechnen der aufgenommen reflektierten Infrarotstrahlung in ein Reflexionsbild (RB);- Vergleichen des Reflexionsbilds (RB) mit zumindest einem Identifikationsmuster (IM) eines Feldgeräts (FG); und- Übermitteln von mit dem Identifikationsmuster (IM) verknüpften Identifikationsdaten an die Bedieneinheit (BE), im Falle, dass eine Übereinstimmung zwischen dem Reflexionsbild (RB) und dem Identifikationsmuster (IM) besteht.

Description

  • Die Erfindung betrifft ein Verfahren zur Identifikation eines Feldgeräts der Automatisierungstechnik mittels einer Bedieneinheit, wobei die Bedieneinheit eine Kamera, insbesondere eine Time-of-Flight-Kamera, aufweist.
  • Aus dem Stand der Technik sind bereits Feldgeräte bekannt geworden, die in industriellen Anlagen zum Einsatz kommen. In der Automatisierungstechnik ebenso wie in der Fertigungsautomatisierung werden vielfach Feldgeräte eingesetzt. Als Feldgeräte werden im Prinzip alle Geräte bezeichnet, die prozessnah eingesetzt werden und die prozessrelevante Informationen liefern oder verarbeiten. So werden Feldgeräte zur Erfassung und/oder Beeinflussung von Prozessgrößen verwendet. Zur Erfassung von Prozessgrößen dienen Messgeräte, bzw. Sensoren. Diese werden beispielsweise zur Druck- und Temperaturmessung, Leitfähigkeitsmessung, Durchflussmessung, pH-Messung, Füllstandmessung, etc. verwendet und erfassen die entsprechenden Prozessvariablen Druck, Temperatur, Leitfähigkeit, pH-Wert, Füllstand, Durchfluss etc. Zur Beeinflussung von Prozessgrößen werden Aktoren verwendet. Diese sind beispielsweise Pumpen oder Ventile, die den Durchfluss einer Flüssigkeit in einem Rohr oder den Füllstand in einem Behälter beeinflussen können. Neben den zuvor genannten Messgeräten und Aktoren werden unter Feldgeräten auch Remote I/Os, Funkadapter bzw. allgemein Geräte verstanden, die auf der Feldebene angeordnet sind.
  • Eine Vielzahl solcher Feldgeräte wird von der Endress+Hauser-Gruppe produziert und vertrieben.
  • Feldgeräte, die in eine neue Applikation einer Prozessanlage integriert werden, oder Austauschfeldgeräte, die ein veraltetes oder defektes Feldgerät einer Applikation ersetzen, müssen im Zuge der Inbetriebnahme spezifisch auf die jeweilige Applikation des Feldgeräts in der Messstelle angepasst werden. Dafür werden diese Feldgeräte während oder nach der Fertigung konfiguriert und parametriert. Die Konfiguration beschreibt zum einen die hardwareseitige Konfiguration, welche beispielsweise das Flanschmaterial eines Durchflussmessgerätes umfasst, als auch die softwareseitige Konfiguration. Unter Parametrierung versteht man das Definieren und Festlegen von Parametern, mit deren Hilfe der Betrieb des Feldgerätes auf die jeweiligen Merkmale der Applikation, beispielsweise das Messmedium, eingestellt wird.
  • Abhängig vom Feldgerätetyp kann ein Feldgerät mehrere hunderte verschiedene Parameter aufweisen, denen im Zuge der Inbetriebnahme Parameterwerte zugewiesen werden. Heutzutage wird die Parametrierung eines Feldgeräts mittels Softwaretools vorgenommen. Die Eingaben der Parameterwerte sind ausschließlich textbasiert möglich und setzen ein technisches Verständnis seitens des Bedieners voraus.
  • Im Stand der Technik sind Verfahren bekannt geworden, in welchen die Parametrierung von Feldgeräten mittels Augmented-Reality-Methoden vereinfacht wird. Bei solchen Methoden wird eine Bedieneinheit mit einer Kamera und einer Anzeigeeinheit verwendet, welche Kamera ein Objekt aus der realen Welt erfasst. Das erfasste Objekt wird virtuell auf der Anzeigeeinheit der Bedieneinheit mit virtuellen Komponenten überlagert, welche dem Benutzer die Parametereigabe erleichtern, oder dem Benutzer anhand erfasster/erkannter Gemoemtrien der Messstelle, in welche das jeweilige Feldgerät eingebaut ist, Parametervorschläge unterbreiten. Als geeignete Bedieneinheiten kommen beispielsweise Datenbrillen wie die Microsoft Hololens oder mobile Endgeräte, wie Tablets oder Smartphones, in Betracht.
  • Voraussetzung für solche Augmented-Reality-Anwendungen ist zum einen, dass bekannt sein muss, um welchen erfassten Objekttyp es sich handelt. Zum anderen muss die Lage des Objekts im dreidimensionalen Raum bekannt sein, um eine korrekte Überlagerung des erfassten Objekts mit den virtuellen Komponenten zu ermöglichen. Augmented Reality Devices arbeiten üblicherweise mit sogenannten 3D-Tiefensensoren um ihre Umgebung dreidimensional erfassen zu können. Aus den Tiefeninformationen wird zur Laufzeit ein sogenanntes 3D-Mesh (Modell) generiert, welches die Oberflächen der realen Umgebung abbildet. Auf Basis dessen können Applikationen nun virtuelle Inhalte der realen Welt überlagern.
  • Die Auflösung der eingesetzten 3D-Tiefensensoren ist jedoch sehr ungenau - es können etwa nur relativ grobe Strukturen, beispielsweise größer 15 cm, erfasst werden. Dadurch ist es beispielsweise nicht möglich, ein auf einem Tank angebrachtes Feldgerät zu erkennen.
  • Ausgehend von dieser Problematik liegt der Erfindung die Aufgabe zugrunde, ein Verfahren vorzustellen, welches die Identifikation eines Feldgerätes für Augmented-Reality-Anwendungen verbessert.
  • Die Aufgabe wird durch ein Verfahren zur Identifikation eines Feldgeräts der Automatisierungstechnik mittels einer Bedieneinheit gelöst, wobei die Bedieneinheit eine Kamera, insbesondere eine Time-of-Flight-Kamera, aufweist, umfassend:
    • - Emittieren einer Infrarotstrahlung, wobei die Infrarotstrahlung im Wesentlichen auf ein am Feldgerät angebrachtes zweidimensionales, im Infrarotbereich reflexives Muster gerichtet ist;
    • - Erfassen einer Reflexion der Infrarotstrahlung an dem reflexiven Muster mittels der Kamera;
    • - Umrechnen der aufgenommen reflektierten Infrarotstrahlung in ein Reflexionsbild;
    • - Vergleichen des Reflexionsbilds mit zumindest einem Identifikationsmuster eines Feldgeräts; und
    • - Übermitteln von mit dem Identifikationsmuster verknüpften Identifikationsdaten an die Bedieneinheit, im Falle, dass eine Übereinstimmung zwischen dem Reflexionsbild und dem Identifikationsmuster besteht.
  • Der Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass die Identifikation eines Feldgeräts mittels einer Augmented-Reality-Bedieneinheit verbessert wird. Von Seiten des Feldgeräts werden für die Identifikation keine aktiven Bauteile benötigt. Aufgrund der von der Bedieneinheit emittierten Infratotstrahlung ist auch eine Identifikation des Feldgeräts unter schlechten Lichtbedingungen möglich.
  • Bei dem reflexiven Muster handelt es sich beispielsweise um einen Aufkleber, welcher auf einer definierten Stelle des Feldgeräts aufgebracht ist.
  • Das Reflexionsbild wird mittels Bildverarbeitungsalgorithmen mit bekannten Identifikationsmustern verglichen. Insbesondere werden hier KI(„Künstliche Intelligenz“)-Algorithmen, bzw. neuronale Netzwerke, verwendet. Mithilfe dieser Algorithmen kann eine bekannte Form des Reflexionsbilds selbst dann zuverlässig erkannt werden, wenn das Reflexionsbild aufgrund des Winkels von der Kamera zu dem reflektiven Muster einen hohen Verzerrungsgrad aufweist.
  • Feldgeräte, welche im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben werden, sind bereits im einleitenden Teil der Beschreibung beispielhaft genannt worden.
  • Gemäß einer bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass die Infrarotstrahlung von der Bedieneinheit, insbesondere von der Kamera, emittiert wird. Es ist hierbei insbesondere vorgesehen, dass es sich bei dem reflexiven Muster um ein retroreflektierendes Muster handelt. Das bedeutet, dass die einfallende Infrarotstrahlung weitgehend unabhängig von der Lage der Emissionsquelle der Infrarotstrahlung größtenteils in Richtung zurück zu der Emissionsquelle reflektiert wird.
  • Gemäß einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens ist vorgesehen, dass eine perspektivische Verzerrung des Reflexionsbilds im Vergleich zu dem übereinstimmenden Identifikationsmuster ermittelt wird, wobei die Verzerrung für beide Dimensionen des Reflexionsbilds ermittelt wird. Hierfür werden die obig beschriebenen Bildverarbeitungsalgorithmen verwendet. Nachdem eine Übereinstimmung des Reflexionsbilds mit einem bekannten Identifikationsmuster festgestellt wurde, werden die Dimensionen des Reflexionsbilds und des Identifikationsmusters miteinander verglichen. Da das jeweilige Identifikationsmuster in seiner kanonischen Form bekannt ist, wird dieses als Referenzobjekt verwendet.
  • Eine bevorzugte Ausgestaltung des erfindungsgemäßen Verfahrens sieht vor, dass anhand der ermittelten perspektivischen Verzerrung eine relative Lage, insbesondere ein relativer Neigungswinkel, des Feldgeräts zu der Bedieneinheit ermittelt wird. Hierfür ist es zwingend erforderlich, dass bekannt ist, an welcher Stelle das reflexive Muster auf dem Feldgerät angebracht ist. Die Position und Lage des reflexiven Musters zu der Bedieneinheit wird in Ortskoordinaten eines relativen Koordinatensystems der Bedieneinheit übertragen.
  • Eine vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht vor, dass die Bedieneinheit mittels Lagesensoren eine absolute Lage der Bedieneinheit im dreidimensionalen Raum bestimmt. Zusätzlich kann die Bedieneinheit ihre jeweilige Ortsposition ermitteln, beispielsweise mittels GPS-Sensoren.
  • Gemäß einer bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass durch Vergleichen der relativen Lage des Feldgeräts zu der Bedieneinheit und der absoluten Lage der Bedieneinheit im dreidimensionalen Raum eine absolute Lage des Feldgeräts im dreidimensionalen Raum berechnet wird. Durch die Bestimmung der absoluten Lage der Bedieneinheit im dreidimensionalen Raum definiert die Bedieneinheit ein absolutes Koordinatensystem. Die Ortskoordinaten des reflexiven Musters werden anschließend in das absolute Koordinatensystem transformiert.
  • Gemäß einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass bei dem Vergleich des Reflexionsbilds auf eine Datenbank, insbesondere auf eine cloudfähige Datenbank, zugegriffen wird, welche das zumindest eine Identifikationsmuster vorhält. Es ist insbesondere vorgesehen, dass eine Vielzahl an Identifikationsmustern auf der Datenbank abgelegt ist. Es kann hierbei vorgesehen sein, dass für jeden Feldgerätetyp eine unterschiedliche Form eines Identifikationsmusters vorgesehen ist.
  • Vorteilhafterweise kann zusätzlich vorgesehen sein, dass das reflexive Muster zusätzliche Formen oder Bereiche, bzw. Symbole enthält. Diese Formen oder Bereiche können die Seriennummer des jeweiligen Feldgeräts abbilden und bei der Identifikation miterfasst werden.
  • Gemäß einer ersten Variante des erfindungsgemäßen Verfahrens ist vorgesehen, dass als Bedieneinheit eine Datenbrille verwendet wird. Als Beispiel für eine solche Datenbrille sei die Microsoft Hololens genannt. Die Datenbrille weist eine Anzeigeeinheit auf. Im einfachsten Fall handelt es sich bei der Anzeigeeinheit um ein kombiniertes transparentes Glas mit einem Projektor. Der Bediener blickt durch das Glas hindurch. Die durch das Glas betrachtete Umgebung wird als Sichtfeld bezeichnet. Der Projektor ist dazu ausgestaltet, eine Projektion auf das Glas zu werfen, welche der Bediener wahrnimmt. Über das aktuelle Sichtfeld des Bedieners können so das virtuelle Objekte gelegt werden. Die virtuellen Objekte können nach Bestimmung der Lage von dem Feldgerät zu der Datenbrille nun in der Art über das Sichtfeld des Bedieners gelegt, dass diese sich auf oder in der Nähe von dem Feldgerät befinden. Ändert sich die Position der Kamera bezüglich des Feldgeräts, so verändert sich das auf der Anzeigeeinheit visualisierte Bild dementsprechend. Die virtuellen Objekte verbleiben allerdings auf der zugewiesenen Position des Feldgeräts und „wandern“, bzw. drehen sich dementsprechend abhängig von der Verschiebung des Feldgeräts auf dem Bild mit.
  • Alternativ ist vorgesehen, dass die Anzeigeeinheit als Sichtfeld des Bedieners ein von der Kamera erfasstes, ständig aktualisiertes Bild visualisiert, und wobei die virtuellen Objekte das auf der Anzeigeeinheit angezeigten Bilds zumindest teilweise überlagern. Die Anzeigeeinheit der Bedieneinheit zeigt das Livebild, welches von der Kamera aufgenommen wird. Der Bediener sollte die Bedieneinheit derart auf die Messstelle richten, dass das Feldgerät von der Kamera erfasst wird. Über das aktuelle Livebild der Kamera werden die virtuellen Objekte gelegt. Diese Methode eignet sich für Bedieneinheiten, welche kein transparentes Glas aufweisen, sondern ein herkömmliches Display als Anzeigeeinheit besitzen.
  • Gemäß einer zweiten Variante des erfindungsgemäßen Verfahrens ist vorgesehen, dass als Bedieneinheit ein mobiles Endgerät verwendet wird. Bei einem mobilen Endgerät handelt es sich insbesondere um ein Tablet oder um ein Smartphone. Zur Visualisierung von virtuellen Objekten wird die obige Variante bezüglich eines herkömmlichen Displays verwendet.
  • Alternativ können weitere Gerätearten als Bedieneinheiten verwendet werden, insofern diese eine Anzeigeeinheit und eine Kamera aufweisen, sowie eine ausreichende Rechenleistung zur Verfügung stellen können.
  • Die Erfindung wird anhand der nachfolgenden Figuren näher erläutert. Es zeigen
    • 1: ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens.
  • In 1 ist eine Messstelle MS einer Anlage der Prozessautomatisierung gezeigt. Die Messstelle umfasst eine Komponente KO in Form eines Tanks. An diesem Tank KO ist ein Feldgerät FG angebracht, welches zur Erfassung des Füllstands des in dem Tank KO befindlichen Prozessmediums dient.
  • Zur Inbetriebnahme muss das Feldgerät FG parametriert werden. Der Bediener BD möchte die Parametrierung des Feldgeräts FG mithilfe einer Virtual-Reality-Anwendung vornehmen. Beispielsweise soll die Anwendung selbstständig relevante Geometrien des Tanks erkennen und auf dieser Basis spezifische Parameterwerte vorschlagen. Der Bediener BD möchte die Virtual-Reality-Anwendung auf seiner Bedieneinheit BE in Form einer Datenbrille ausführen.
  • Um spezifische Parameterwerte vorschlagen zu können muss der Bedieneinheit BE mitgeteilt werden, um welchen Typ Feldgerät FG es sich handelt. Zudem werden in der Virtual-Reality-Anwendung unter Umständen spezielle virtuelle Objekte, beispielsweise Visualierungsmodelle, o.ä. verwendet, welche auf der Anzeigeeinheit AE der Bedieneinheit BE angezeigt werden und spezifisch für den jeweiligen Feldgerätetyp sind. Des Weiteren ist es notwendig, dass die Virtual-Reality-Anwendung die Positionierung und die Lage des Feldgeräts FG im dreidimensionalen Raum kennt.
  • Zu diesem Zweck werden auf dem Feldgerät FG an definierter Position ein oder mehrere Reflexionsbilder MU angebracht. Es handelt sich hierbei um retroreflektierende Aufkleber mit einer definierten Form.
  • Für die Erfassung der Form der Reflexionsbild wird eine sogenannte Time-of-Flight-Kamera KA verwendet. Diese weist eine Leuchtquelle auf, welche infrarote Strahlung emittiert. Anhand der Laufzeit der von dem reflexiven Muster MU zurückgeworfenen Infrarotstrahlung kann ein 3D-Reflexionsbild RM erstellt werden.
  • Alternativ wird eine gewöhnliche Infrarotkamera KA verwendet, welche ein zweidimensionales Reflexionsbild RM erfasst.
  • Das erfasste Reflexionsbild RM wird von der Bedieneinheit BE mittels Internet an eine Datenbank DB übermittelt. Die Datenbank DB weist eine Vielzahl vorab erfasster Identifikationsmuster IM, welche jeweils einem entsprechenden Feldgerätetyp zugeordnet sind. Mittels Bildverarbeitungsalgorithmen wird das erfasste Reflexionsbild RM mit den auf der Datenbank DB befindlichen Identifikationsmustern IM verglichen. Die Datenbank DB führt dabei die Bildverarbeitungsalgorithmen aus und übermittelt der Bedieneinheit BE im Falle einer Übereinstimmung Identifikationsinformationen des Feldgeräts FG, beispielsweise den Typ des Feldgeräts FG.
  • Alternativ ist es vorgesehen, dass die Bedieneinheit BE die Identifikationsmuster IM von der Datenbank DB abruft und die Bildverarbeitungsalgorithmen selbst ausführt, wobei die Identifikationsmuster IM mit Identifikationsinformationen des entsprechenden Feldgerätetyps verknüpft sind.
  • Nachdem die Identifikation des Feldgeräts FG abgeschlossen ist, wird die absolute Lage des Feldgeräts FG im dreidimensionalen Raum bestimmt. Hierfür wird in einem ersten Schritt eine perspektivische Verzerrung des Reflexionsbilds RM im Vergleich zu dem übereinstimmenden Identifikationsmuster IM ermittelt, wobei die Verzerrung für beide Dimensionen des Reflexionsbilds RM ermittelt wird. Zu diesem Zweck werden erneute obig beschriebenen Bildverarbeitungsalgorithmen ausgeführt, um eine Längenabweichung in beiden Dimensionen zu bestimmen. Da das jeweilige Identifikationsmuster IM in seiner kanonischen Form bekannt ist, wird dieses als Referenzobjekt verwendet.
  • Anhand der ermittelten perspektivischen Verzerrung wird in einem zweiten Schritt eine relative Lage, insbesondere ein relativer Neigungswinkel, des Feldgeräts FG zu der Bedieneinheit BE ermittelt. Hierfür ist es zwingend erforderlich, dass bekannt ist, an welcher Stelle das reflexive Muster MU an dem Feldgerät FG angebracht ist. Die Position und Lage des reflexiven Musters MU zu der Bedieneinheit BE wird in Ortskoordinaten eines relativen Koordinatensystems der Bedieneinheit übertragen.
  • In einem dritten Schritt bestimmt die Bedieneinheit mittels Lagesensoren eine absolute Lage der Bedieneinheit BE im dreidimensionalen Raum. Die absolute Lage der Bedieneinheit BE umfasst die Neigung der Bedieneinheit BE und ihre jeweilige Ortsposition, welche die Bedieneinheit beispielsweise mittels GPS-Sensoren erfasst.
  • In einem letzten Schritt bestimmt die Bedieneinheit BE durch Vergleichen der relativen Lage des Feldgeräts FG zu der Bedieneinheit BE und der absoluten Lage der Bedieneinheit BE im dreidimensionalen Raum die absolute Lage des Feldgeräts FG im dreidimensionalen Raum. Durch die Bestimmung der absoluten Lage der Bedieneinheit BE im dreidimensionalen Raum definiert die Bedieneinheit BE ein absolutes Koordinatensystem. Die Ortskoordinaten des reflexiven Musters MU werden anschließend in das absolute Koordinatensystem transformiert und dadurch die Lage des Feldgeräts FG, und gegebenenfalls dessen Ortsposition, im Bezug zu der Bedieneinheit BE bestimmt.
  • Wird eine Time-of-Flight-Kamera KA verwendet, so kann das Verfahren abgekürzt werden. Die Bedieneinheit BE muss hierfür ihre absolute Lage im dreidimensionalen Raum bestimmen. Anschließend erfasst die Time-of-Flight-Kamera KA den Abstand der Bedieneinheit BE zu den jeweiligen Eckpunkten des reflexiven Musters MU und berechnet daraufhin den Abstand zu dem Feldgerät FG, bzw. daraus die absolute Lage und Ortsposition des Feldgeräts FG im dreidimensionalen Raum.
  • Nachdem die Bestimmung des Feldgeräts FG im dreidimensionalen Raum abgeschlossen ist, kann die eigentliche Augmented-Reality-Applikation auf der Bedieneinheit BE ausgeführt werden, bei welcher es sich beispielsweise um besagte Anwendung zur Unterstützung des Bedieners bei der Parametrierung des Feldgeräts FG handelt.
  • Alternativ zu einer Datenbrille kann als Bedieneinheit BE auch ein mobiles Endgerät verwendet werden. Hierfür eignet sich beispielsweise ein Smartphone oder ein Tablet, aber auch ein Laptop mit einer Webcam.
  • Das erfindungsgemäße Verfahren eignet sich für alle Arten von Feldgerätetypen und ist nicht etwa auf Füllstandmessgeräte beschränkt.
  • Bezugszeichenliste
  • AE
    Anzeigeeinheit
    BD
    Bediener
    BE
    Bedieneinheit
    DB
    Datenbank
    FG
    Feldgerät
    IM
    Identifikationsmuster
    KA
    Kamera
    KO
    Komponente einer Messstelle
    MS
    Messstelle
    MU
    reflexives Muster
    RB
    Reflexionsbild

Claims (9)

  1. Verfahren zur Identifikation eines Feldgeräts (FG) der Automatisierungstechnik mittels einer Bedieneinheit (BE), wobei die Bedieneinheit (BE) eine Kamera (KA), insbesondere eine Time-of-Flight-Kamera, aufweist, umfassend: - Emittieren einer Infrarotstrahlung, wobei die Infrarotstrahlung im Wesentlichen auf zumindest ein am Feldgerät (FG) angebrachtes zweidimensionales, im Infrarotbereich reflexives Muster (MU) gerichtet ist; - Erfassen einer Reflexion der Infrarotstrahlung an dem zumindest einem reflexiven Muster (MU) mittels der Kamera (KA); - Umrechnen der aufgenommen reflektierten Infrarotstrahlung in ein Reflexionsbild (RB); - Vergleichen des Reflexionsbilds (RB) mit zumindest einem Identifikationsmuster (IM) eines Feldgeräts (FG); und - Übermitteln von mit dem Identifikationsmuster (IM) verknüpften Identifikationsdaten an die Bedieneinheit (BE), im Falle, dass eine Übereinstimmung zwischen dem Reflexionsbild (RB) und dem Identifikationsmuster (IM) besteht.
  2. Verfahren nach Anspruch 1, wobei die Infrarotstrahlung von der Bedieneinheit (BE), insbesondere von der Kamera (KA), emittiert wird.
  3. Verfahren nach zumindest einem der vorherigen Ansprüche, wobei eine perspektivische Verzerrung des Reflexionsbilds (RB) im Vergleich zu dem übereinstimmenden Identifikationsmuster (IM) ermittelt wird, wobei die Verzerrung für beide Dimensionen des Reflexionsbilds (RB) ermittelt wird.
  4. Verfahren nach Anspruch 3, wobei anhand der ermittelten perspektivischen Verzerrung eine relative Lage, insbesondere ein relativer Neigungswinkel, des Feldgeräts (FG) zu der Bedieneinheit (BE) ermittelt wird.
  5. Verfahren nach Anspruch 3 oder 4, wobei die Bedieneinheit (BE) mittels Lagesensoren eine absolute Lage der Bedieneinheit (BE) im dreidimensionalen Raum bestimmt.
  6. Verfahren nach Anspruch 5, wobei durch Vergleichen der relativen Lage des Feldgeräts (FG) zu der Bedieneinheit (BE) und der absoluten Lage der Bedieneinheit (BE) im dreidimensionalen Raum eine absolute Lage des Feldgeräts (FG) im dreidimensionalen Raum berechnet wird.
  7. Verfahren nach zumindest einem der vorherigen Ansprüche, wobei bei dem Vergleich des Reflexionsbilds (RB) auf eine Datenbank, insbesondere auf eine cloudfähige Datenbank (DB), zugegriffen wird, welche das zumindest eine Identifikationsmuster (IM) vorhält.
  8. Verfahren nach zumindest einem der vorherigen Ansprüche, wobei als Bedieneinheit (BE) eine Datenbrille verwendet wird.
  9. Verfahren nach zumindest einem der Ansprüche 1 bis 7, wobei als Bedieneinheit (BE) ein mobiles Endgerät verwendet wird.
DE102018112618.2A 2018-05-25 2018-05-25 Verfahren zur Identifikation eines Feldgeräts für eine Augmented-Reality-Anwendung Pending DE102018112618A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018112618.2A DE102018112618A1 (de) 2018-05-25 2018-05-25 Verfahren zur Identifikation eines Feldgeräts für eine Augmented-Reality-Anwendung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018112618.2A DE102018112618A1 (de) 2018-05-25 2018-05-25 Verfahren zur Identifikation eines Feldgeräts für eine Augmented-Reality-Anwendung

Publications (1)

Publication Number Publication Date
DE102018112618A1 true DE102018112618A1 (de) 2019-11-28

Family

ID=68499209

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018112618.2A Pending DE102018112618A1 (de) 2018-05-25 2018-05-25 Verfahren zur Identifikation eines Feldgeräts für eine Augmented-Reality-Anwendung

Country Status (1)

Country Link
DE (1) DE102018112618A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7204428B2 (en) * 2004-03-31 2007-04-17 Microsoft Corporation Identification of object on interactive display surface by identifying coded pattern
WO2007139676A2 (en) * 2006-05-26 2007-12-06 Itt Manufacturing Enterprises, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7204428B2 (en) * 2004-03-31 2007-04-17 Microsoft Corporation Identification of object on interactive display surface by identifying coded pattern
WO2007139676A2 (en) * 2006-05-26 2007-12-06 Itt Manufacturing Enterprises, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LENGENFELDER, C. [et al.]: Low-cost and Retrofittable Pose Estimation of Rigid Objects Using Infrared Markers. In: Procedia CIRP, 72. Jg., 2018, S. 839-844. URL: https://www.sciencedirect.com/science/article/pii/S2212827118305407/pdf[abgerufen am 13.03.2019] *
RE, Guido: Low cost augmented reality for industrial problems. Doktorarbeit, Politecnico Milano, Italien, 2013. URL: https://www.politesi.polimi.it/bitstream/10589/74781/1/2013_03_PhD_Re.pdf[abgerufen am 18.03.2019] *
SCHWALD, Bernd; De LAVAL, Blandinge: An Augmented Reality System for Training and Assistance to Maintenance in the Industrial Context. In: Journal of WSCG, Vol. 11, 2003, No.1. URL: https://pdfs.semanticscholar.org/4568/25e3cb0a3b5f1934a14efd6985fed9d1b883.pdf[abgerufen am 13.03.2019] *
WANG, Tianren; LIU, Yue; WANG, Yongtian: Infrared marker based augmented reality system for equipment maintenance. In: 2008 International Conference on Computer Science and Software Engineering. IEEE, 2008. S. 816-819. URL: https://ieeexplore.ieee.org/iel5/4721667/4722820/04723028.pdf[abgerufen am 18.03.2019] *

Similar Documents

Publication Publication Date Title
DE102015002760B4 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
EP1701233B1 (de) Generierung virtueller Welten auf Basis einer realen Umgebung
DE102018213985B4 (de) Robotersystem
EP1763845B1 (de) Verfahren und vorrichtung zur bestimmung von optischen überdeckungen mit ar-objekten
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE102018109774B4 (de) Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
DE112019003204T5 (de) Visualisierung und modifizierung von arbeitsrandbereichen unter verwendung von erweiterter realität
EP2989872B1 (de) Platziervorrichtung und platzierverfahren
DE102007033486A1 (de) Verfahren und System zur Ermittlung der Position und Orientierung einer Kamera relativ zu einem realen Objekt
DE102019213199A1 (de) Virtuelle räumlich registrierte video überlagerungsanzeige
WO2020126240A1 (de) Verfahren zum betreiben eines feldgeräts der automatisierungstechnik in einer augmented-reality/mixed-reality-umgebung
EP3324362A1 (de) Verfahren und vorrichtung zur inbetriebnahme eines mehrachssystems
DE102018101162B4 (de) Messsystem und Verfahren zur extrinsischen Kalibrierung
DE102018113336A1 (de) Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
EP3974936B1 (de) Konfigurieren einer visualisierungsvorrichtung für einen maschinenbereich
DE102007009851B3 (de) Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
DE102018218611B4 (de) Verfahren und Recheneinrichtung zum Erzeugen eines dreidimensionalen CAD-Modells
EP3882856A1 (de) Verfahren und vorrichtung zum bestimmen einer pose
DE102018112618A1 (de) Verfahren zur Identifikation eines Feldgeräts für eine Augmented-Reality-Anwendung
EP3418839B1 (de) Verfahren zur überwachung einer automatisierungsanlage
EP1915239A2 (de) Verfahren zum erzeugen eines umgebungsbildes
DE102020204677B4 (de) Trackingsystem und Computerprogramm zur Kompensation von Sichtschatten bei der Nachverfolgung von Messobjekten
WO2019185153A1 (de) Verfahren und vorrichtung zum bestimmen von 3d-koordinaten eines objekts
WO2019185079A1 (de) 3-d-objekt-erfassungssystem

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: KRATT-STUBENRAUCH, KAI, DR., DE

Representative=s name: ANDRES, ANGELIKA, DIPL.-PHYS., DE

R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R082 Change of representative

Representative=s name: KRATT-STUBENRAUCH, KAI, DR., DE

R082 Change of representative

Representative=s name: KRATT-STUBENRAUCH, KAI, DR., DE