DE102019126463A1 - Drohnengestützte bedienerrunden - Google Patents

Drohnengestützte bedienerrunden Download PDF

Info

Publication number
DE102019126463A1
DE102019126463A1 DE102019126463.4A DE102019126463A DE102019126463A1 DE 102019126463 A1 DE102019126463 A1 DE 102019126463A1 DE 102019126463 A DE102019126463 A DE 102019126463A DE 102019126463 A1 DE102019126463 A1 DE 102019126463A1
Authority
DE
Germany
Prior art keywords
robot vehicle
process plant
unmanned robot
user interface
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019126463.4A
Other languages
English (en)
Inventor
Robert G. Halgren III
Claudio Fayad
Gary K. Law
Mark J. Nixon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fisher Rosemount Systems Inc
Original Assignee
Fisher Rosemount Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fisher Rosemount Systems Inc filed Critical Fisher Rosemount Systems Inc
Publication of DE102019126463A1 publication Critical patent/DE102019126463A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4189Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system
    • G05B19/41895Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system using automatic guided vehicles [AGV]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4185Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the network communication
    • G05B19/4186Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the network communication by protocol, e.g. MAP, TOP
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0208Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the configuration of the monitoring system
    • G05B23/0216Human interface functionality, e.g. monitoring system providing help to the user in the selection of tests or in its configuration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4184Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by fault tolerance, reliability of production system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0267Fault communication, e.g. human machine interface [HMI]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/24Pc safety
    • G05B2219/24012Use camera of handheld device, head mounted display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/24Pc safety
    • G05B2219/24097Camera monitors controlled machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31455Monitor process status
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31479Operator select part of process he wants to see, video image is displayed
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Drohnen (z.B. unbemannte Luftfahrzeuge oder „UAVs“), die mit Kameras und Sensoren ausgestattet sind, können dazu konfiguriert sein, sich in der Feldumgebung einer Prozessanlage zu bewegen und Prozessanlagenbedingungen zu überwachen. Zu den Drohnen gehörige Bordcomputergeräte steuern die Bewegung der Drohnen durch die Feldumgebung der Prozessanlage. Zu den Drohnen gehörige Bordcomputergeräte bilden eine Schnittstelle zu den Kameras und anderen Sensoren und kommunizieren über ein Netzwerk mit Benutzerschnittstellengeräten, Steuerungen, Servern und/oder Datenbanken. Die Bordcomputergeräte können von Benutzerschnittstellengeräten und/oder Servern Drohnen-Befehle empfangen oder auf Drohnen-Befehle zugreifen, die in einer oder mehreren Datenbanken gespeichert sind. Die Bordcomputergeräte können die von den Kameras und/oder anderen Sensoren erfassten Daten an Benutzerschnittstellengeräte, Steuerungen, Server usw. übertragen. Dadurch können die Benutzerschnittstellengeräte einem Bediener in einer Mensch-Maschine-Schnittstellenanwendung von den Drohnenkameras und/oder Drohnensensoren erfasste Daten (einschließlich Live-Videoeingaben) anzeigen.

Description

  • GEBIET DER OFFENBARUNG
  • Die vorliegende Offenbarung betrifft allgemein Prozessanlagen und Prozessleitsysteme, und insbesondere Systeme und Verfahren, um mit Drohnen Prozessanlagenbedingungen zu überwachen.
  • HINTERGRUND
  • Verteilte Prozessleitsysteme, wie sie in chemischen, petrochemischen, industriellen oder anderen Prozessanlagen zur Herstellung, Veredelung, Umwandlung, Erzeugung oder Herstellung physischer Materialien oder Produkte verwendet werden, umfassen typischerweise eine oder mehrere Prozesssteuerungen, die über analoge, digitale oder kombinierte analoge/digitale Busse oder über eine drahtlose Kommunikationsverbindung oder ein drahtloses Netzwerk mit einem oder mehreren Feldgeräten kommunikativ gekoppelt sind. Die Feldgeräte, die zum Beispiel Ventile, Ventilstellungsregler, Schalter und Messumformer (z.B. Temperatur-, Druck-, Füllstands- und Durchflusssensoren) sein können, befinden sich in der Prozessumgebung und führen allgemein physische oder prozesssteuernde Funktionen wie z.B. das Öffnen oder Schließen von Ventilen, das Messen von Prozess- und/oder Umgebungsparametern wie die Temperatur oder den Druck usw. durch, um einen oder mehrere Prozesse zu steuern, die in der Prozessanlage oder des Systems ausgeführt werden. Intelligente Feldgeräte wie z.B. die Feldgeräte, die dem wohlbekannten Fieldbus-Protokoll entsprechen, können auch Steuerberechnungen, Alarmfunktionen und andere Steuerfunktionen durchführen, die üblicherweise in der Steuerung implementiert sind. Die Prozesssteuerungen, die typischerweise auch in der Anlagenumgebung angeordnet sind, empfangen Signale, die von den Feldgeräten durchgeführte Prozessmessungen und/oder andere die Feldgeräte betreffenden Informationen enthalten, und führen eine Steueranwendung aus, die zum Beispiel verschiedene Steuermodule ausführt, die Entscheidungen zur Prozesssteuerung treffen, auf der Basis der empfangenen Information Steuersignale erzeugen und mit den Steuermodulen oder -blöcken koordinieren, die in Feldgeräten wie z.B. HART®-, WirelessHART®- und FOUNDATION®-Fieldbus-Feldgeräten ausgeführt werden. Die Steuermodule in der Steuerung senden die Steuersignale über die Kommunikationsleitungen oder Verbindungen zu den Feldgeräten, um dadurch den Betrieb mindestens eines Teils der Prozessanlage oder des Systems zu steuern, um z.B. mindestens einen Teil eines oder mehrerer Industrieprozesse, die innerhalb der Anlage oder des Systems ausgeführt werden, zu steuern. Zum Beispiel steuern die Steuerungen und die Feldgeräte mindestens einen Teil eines Prozesses, der von der Prozessanlage oder dem System gesteuert wird. E/A-Vorrichtungen, die typischerweise auch in der Anlagenumgebung angeordnet sind, sind typischerweise zwischen einer Steuerung und einem oder mehreren Feldgeräten angeordnet und ermöglichen die Kommunikation zwischen diesen, indem sie z.B. elektrische Signale in Digitalwerte umwandeln und umgekehrt. Wie hierin verwendet, werden Feldgeräte, Steuerungen und E/A-Geräte allgemeinen als „Prozesssteuergeräte“ bezeichnet und sind allgemeinen in einer Feldumgebung eines Prozessleitsystems oder einer Anlage angeordnet.
  • Informationen von den Feldgeräten und der Steuerung werden in der Regel über ein Datenhighway oder ein Kommunikationsnetzwerk einem oder mehreren anderen Hardwaregeräten wie z.B. Bediener-Arbeitsstationen, PCs oder Computergeräten, Data-Historians, Reportgeneratoren, zentralen Datenbanken oder anderen zentralen Verwaltungsrechnern bereitgestellt, die typischerweise in Kontrollräumen oder an anderen Orten angeordnet sind, die von der raueren Anlagenumgebung entfernt sind, z.B. in einer Backend-Umgebung der Prozessanlage. Jedes dieser Hardwaregeräte ist typischerweise in der Prozessanlage oder einen Teil der Prozessanlage zentralisiert. Diese Hardwaregeräte führen Anwendungen aus, die es zum Beispiel einem Bediener ermöglichen, Funktionen in Bezug auf die Steuerung eines Prozesses und/oder den Betrieb der Prozessanlage auszuführen, wie z.B. das Ändern von Einstellungen der Prozesssteuerroutine, das Ändern des Betriebs der Steuermodule in den Steuerungen oder Feldgeräten, das Anzeigen des aktuellen Prozesszustands, das Anzeigen von Alarmen, die von Feldgeräten und Steuerungen generiert wurden, das Simulieren des Betriebs des Prozesses zu Personalschulungszwecken von oder das Testen der Prozesssteuerungssoftware, das Pflegen und Aktualisieren einer Konfigurationsdatenbank usw. Der Datenhighway, der von den Hardwaregeräten, Steuerungen und Feldgeräten verwendet wird, kann einen drahtgebundenen Kommunikationsweg, einen drahtlosen Kommunikationsweg oder eine Kombination aus drahtgebundenen und drahtlosen Kommunikationswegen umfassen.
  • Beispielsweise umfasst das DeltaV™-Steuerungssystem, das von Emerson Process Management angeboten wird, mehrere Anwendungen, die in verschiedenen Geräten, die sich an verschiedenen Stellen in einer Prozessanlage befinden, gespeichert und ausgeführt werden. Eine Konfigurationsanwendung, die in einer oder mehreren Arbeitsstationen oder Computergeräten in Backend-Umgebung eines Prozesssteuerungssystems oder Prozessanlage installiert ist, ermöglicht es Benutzern, Prozesssteuermodule zu erstellen oder zu ändern und diese Prozesssteuermodule über einen Datenhighway in dedizierte verteilte Steuerungen herunterzuladen. Typischerweise bestehen diese Steuermodule aus kommunikativ miteinander verbundenen Funktionsblöcken, die Objekte in einem objektorientierten Programmierprotokoll sind, die auf der Basis von Eingaben Funktionen im Steuersystem durchführen und anderen Funktionsblöcken im Steuersystem Ausgaben bereitstellen. Die Konfigurationsanwendung kann einem Konfigurationsdesigner auch ermöglichen, Bedienoberflächen zu erstellen oder zu ändern, die von einer Betrachtungsanwendung verwendet wird, um einem Bediener Daten anzuzeigen, und dem Bediener zu ermöglichen, Einstellungen wie z.B. Sollwerte in den Prozesssteuerroutinen zu ändern. Jede dedizierte Steuerung, und in manchen Fällen ein oder mehrere Feldgeräte, speichern und führen eine jeweilige Steueranwendung aus, die die ihr zugeordneten und dort heruntergeladenen Steuermodule ausführt, um die eigentliche Prozesssteuerfunktionalität zu implementieren. Die Betrachtungsanwendungen, die auf einer oder mehreren Bediener-Arbeitsstationen (oder auf einer oder mehreren entfernten Computergeräten, die mit den Bediener-Arbeitsstationen und dem Datenhighway in kommunikativer Verbindung sind) ausgeführt werden können, empfangen über den Datenhighway Daten von der Steueranwendung, zeigen diese Daten den Konstrukteuren, Betreibern oder Benutzern von Prozessleitsystemen über die Benutzeroberflächen an und können eine von mehreren verschiedenen Ansichten wie z.B. eine Bediener-Ansicht, eine Ingenieur-Ansicht, eine Techniker-Ansicht usw. bereitstellen. Eine Datenhistorie-Anwendung wird typischerweise in einem Datenhistorie-Gerät gespeichert und ausgeführt, die einige oder alle Daten, die über den Datenhighway bereitgestellt werden, sammelt und speichert, während in einem weiteren mit dem Datenhighway verbundenen Computer eine Konfigurationsdatenbank-Anwendung ausgeführt werden kann, um die aktuelle Prozesssteuerroutinenkonfiguration und zugehörige Daten zu speichern. Alternativ dazu kann die Konfigurationsdatenbank in der gleichen Arbeitsstation wie die Konfigurationsanwendung angeordnet sein.
  • Obwohl diese Betrachtungsanwendungen gegenwärtig Bedienern über Bediener-Arbeitsstationen, die außerhalb der Feldumgebung der Anlage liegen, viele Informationen bereitstellen, müssen Bediener sich noch in die Feldumgebung der Anlage hinauswagen, um bestimmte Arten von Informationen zu erhalten. Auch wenn diese Betrachtungsanwendungen zum Beispiel Live- oder Standbilder anzeigen können, die durch Kameras aufgenommen wurden, die in der Anlage positioniert sind, haben diese Kameras typischerweise feste Sichtfelder. Daher kann es für einen Bediener erforderlich sein, die Feldumgebung der Anlage zu betreten, um Ereignisse der Prozessanlage zu untersuchen, die außerhalb des Sichtfelds dieser Kameras liegen. Darüber hinaus gehen Bediener gegenwärtig in geplanten Runden durch die Feldumgebung von Prozessanlagen, wobei sie den Anlagenzustand prüfen, Maßnahmen in der Anlage durchführen usw., um Checklisten für die Anlagensicherheit auszufüllen. Da in der Feldumgebung von Prozessanlagen gefährliche Bedingungen wie z.B. gefährliche Chemikalien, hohe Temperaturen, gefährliche Ausrüstungen und/oder laute Geräusche vorherrschen, ist es für den Bediener jedoch oft unsicher, die Feldumgebung einer Prozessanlage physisch zu betreten.
  • ZUSAMMENFASSUNG
  • Eine Vielzahl von Drohnen, die mit Kameras und Sensoren ausgestattet sind, können dazu konfiguriert werden, sich durch die Feldumgebung einer Prozessanlage zu bewegen sich, um Prozessanlagenbedingungen zu überwachen. Allgemein gesagt sind die Drohnen unbemannte Roboterfahrzeuge. In manchen Beispielen sind die Drohnen Flugdrohnen (z.B. unbemannte Luftfahrzeuge oder „UAVs“), während die Drohnen in anderen Beispielen Boden- oder Wasserdrohnen oder Drohnen mit einer Kombination luft-, boden- und/oder wassergestützter Merkmale sind. Zu den Drohnen gehörige Bordcomputergeräte steuern die Bewegung der Drohnen durch die Feldumgebung der Prozessanlage. Zudem bilden die Bordcomputergeräte eine Schnittstelle zu den Kameras und anderen Sensoren und kommunizieren über ein Netzwerk mit Benutzerschnittstellengeräten, Steuerungen, Servern und/oder Datenbanken. Zum Beispiel können die Bordcomputergeräte von Benutzerschnittstellengeräten und/oder Servern Drohnen-Befehle empfangen oder auf Drohnen-Befehle zugreifen, die in einer oder mehreren Datenbanken gespeichert sind. Zusätzlich können die Bordcomputergeräte von den Kameras und/oder anderen Sensoren erfasste Daten an UI-Geräte, Steuerungen, Server usw. übertragen. Dadurch können die Benutzerschnittstellengeräte einem Bediener in einer Mensch-Maschine-Schnittstellenanwendung von den Drohnenkameras und/oder Drohnensensoren erfasste Daten (einschließlich Live-Videoeingaben) anzeigen.
  • In einem Aspekt wird ein Verfahren bereitgestellt. Das Verfahren umfasst: Empfangen, durch ein Benutzerschnittstellengerät, einer Angabe einer Benutzerauswahl eines Ausrüstungsgegenstands in einer durch das Benutzerschnittstellengerät angezeigten Übersicht einer Prozessanlage, wo ein unbemanntes Roboterfahrzeug eingesetzt werden soll, wobei die Übersicht der Prozessanlage eine Darstellung des physischen Orts verschiedener Ausrüstungen innerhalb der Prozessanlage anzeigt; Übertragen, durch das Benutzerschnittstellengerät, der Angabe der Benutzerauswahl an ein zum unbemannten Roboterfahrzeug gehöriges Bordcomputergerät; Bestimmen, durch das zum unbemannten Roboterfahrzeug gehörige Bordcomputergerät, eines Zielorts für das unbemannte Roboterfahrzeug in der Prozessanlage auf der Basis der Angabe der Benutzerauswahl; Steuern des unbemannten Roboterfahrzeugs, durch das zum unbemannten Roboterfahrzeug gehörige Bordcomputergerät, um von einem aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage zu gelangen; Erfassen von Kameradaten durch eine oder mehrere Kameras des unbemannten Roboterfahrzeugs; Übertragen, durch das zum unbemannten Roboterfahrzeug gehörige Bordcomputergerät, der Kameradaten an das Benutzerschnittstellengerät; und Anzeigen, durch das Benutzerschnittstellengerät, der Kameradaten neben der Übersicht der Prozessanlage.
  • In einem anderen Aspekt wird ein Benutzerschnittstellengerät bereitgestellt. Das Benutzerschnittstellengerät umfasst: Ein Benutzerschnittstellengerät, das dazu konfiguriert ist, mit einem unbemannten Roboterfahrzeug zu kommunizieren, das mit einer oder mehreren Kameras ausgestattet ist, wobei das Benutzerschnittstellengerät umfasst: eine Anzeige; einen oder mehrere Prozessoren; und einen oder mehrere Speicher, die einen Satz computerausführbarer Anweisungen speichern. Wenn die computerausführbaren Anweisungen von einem oder mehreren Prozessoren ausgeführt werden, veranlassen sie das Benutzerschnittstellengerät dazu: von einem zum unbemannten Roboterfahrzeug gehörigen Bordcomputergerät Daten zu empfangen, die von einer oder mehreren Kameras des unbemannten Roboterfahrzeugs erfasst werden; neben den von einer oder mehreren Kameras des unbemannten Roboterfahrzeugs erfassten Daten eine Übersicht der Prozessanlage anzuzeigen, wobei die Übersicht der Prozessanlage eine Darstellung des physischen Orts verschiedener Ausrüstungen in der Prozessanlage darstellt; in der Übersicht der Prozessanlage eine Bedienerauswahl einer Ausrüstung zu empfangen, wo das unbemannte Roboterfahrzeug eingesetzt werden soll; und an das Bordcomputergerät des unbemannten Roboterfahrzeugs einen Befehl zu senden, der den ausgewählten Ausrüstungsgegenstand in der Übersicht der Prozessanlage angibt, wo das unbemannte Roboterfahrzeug eingesetzt werden soll.
  • In einem weiteren Aspekt wird ein unbemanntes Roboterfahrzeug bereitgestellt. Das unbemannte Roboterfahrzeug umfasst: eine oder mehrere Kameras, die dazu konfiguriert sind, Bilder aufzunehmen, während das unbemannte Roboterfahrzeug sich in einer Prozessanlage bewegt, einen oder mehrere Prozessoren; und einen oder mehrere Speicher, die einen Satz computerausführbarer Anweisungen speichern. Wenn die computerausführbaren Anweisungen von einem oder mehreren Prozessoren ausgeführt werden, veranlassen sie das unbemannte Roboterfahrzeug dazu: Befehle von einem Benutzerschnittstellengerät zu empfangen, wobei die Befehle vom Benutzerschnittstellengerät Befehle umfassen, die einen Ausrüstungsgegenstand in der Prozessanlage angeben, wo das unbemannte Roboterfahrzeug eingesetzt werden soll; auf der Basis der Angabe des Ausrüstungsgegenstands in der Prozessanlage einen Zielort in der Prozessanlage zu bestimmen; sich von einem aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage zu begeben; und von einer oder mehreren Kameras aufgenommene Bilder zum Benutzerschnittstellengerät zu übertragen.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das eine beispielhafte Prozessanlage darstellt, in welcher Drohnen zur Überwachung der Prozessanlagenzuständen implementiert und/oder integriert sein können;
    • 2 ist ein Blockdiagramm eines beispielhaften Bordcomputergeräts für Drohnen und eines beispielhaften Benutzerschnittstellengeräts, die in 1 schematisch dargestellt sind; und
    • 3 ist eine beispielhafte Ansicht der Benutzeroberfläche einer Bedieneranwendung zur Überwachung der Anlagenbedingungen mit Drohnen.
    • 4 ist ein Ablaufplan eines beispielhaften Verfahrens zur Überwachung von Prozessanlagenbedingungen mit unbemannten Roboterfahrzeugen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Obwohl Betrachtungsanwendungen, wie oben beschrieben, Bedienern gegenwärtig über Bediener-Arbeitsstationen, die außerhalb der Feldumgebung der Anlage gelegen sind, viel Information bereitstellen, müssen Bediener sich noch in die Feldumgebung der Anlage hinauswagen, um bestimmte Arten von Informationen zu erhalten. Auch wenn diese Betrachtungsanwendungen zum Beispiel Live- oder Standbilder anzeigen können, die von Kameras aufgenommen werden, die in der Anlage positioniert sind, haben diese Kameras typischerweise feste Sichtfelder. Daher kann es für einen Bediener erforderlich sein, die Feldumgebung der Anlage zu betreten, um Ereignisse der Prozessanlage, die außerhalb des Sichtfelds dieser Kameras liegen, zu untersuchen. Zudem gehen Bediener gegenwärtig in geplanten Runden durch die Feldumgebungen von Prozessanlagen, wobei sie den Anlagenzustand überprüfen, Maßnahmen in der Anlage durchführen usw., um Checklisten für die Anlagensicherheit auszufüllen. Da in der Feldumgebung von Prozessanlagen gefährliche Bedingungen wie z.B. gefährliche Chemikalien, hohe Temperaturen, gefährliche Ausrüstungen und/oder laute Geräusche vorherrschen, ist es für den Bediener jedoch oft unsicher, die Feldumgebung einer Prozessanlage physisch zu betreten.
  • Die Systeme, Verfahren, Vorrichtungen und Techniken, die hier offenbart werden, beheben diese und andere Nachteile bekannter Systeme, indem sie es Bedienern ermöglichen, Bedingungen in Prozessanlagen zu überwachen, ohne gefährliche Feldumgebungen dieser Anlagen physisch zu betreten. Insbesondere werden hier Systeme, Verfahren, Vorrichtungen und Techniken offenbart, um Prozessanlagenbedingungen mit Drohnen zu überwachen. Vorteilhafterweise sind mit Kameras und anderen Sensoren ausgestattete Drohnen in der Lage, Bereiche einer Prozessanlage, die für Bediener zu gefährlich sind, sicher überwachen. Zum Beispiel können Daten, die von den Kameras und anderen Sensoren erfasst werden, zu Benutzerschnittstellengeräten übertragen und Bedienern angezeigt werden, die sich außerhalb der Feldumgebung in Sicherheit befinden.
  • 1 ist ein Blockdiagramm eines beispielhaften Prozesssteuerungsnetzwerks oder Systems 2, das in einem Prozessleitsystem oder in einer Prozessanlage 10 betrieben wird und/oder in welchem Ausführungsformen der hier beschriebenen Systeme, Verfahren, Vorrichtungen und Techniken angewandt werden können, um Prozessanlagenbedingungen mit Drohnen zu überwachen. Das Prozesssteuerungsnetzwerk oder System 2 kann ein Netzwerk-Backbone 5 umfassen, das eine direkte oder indirekte Konnektivität zwischen verschiedenen anderen Geräten ermöglicht. Die mit dem Netzwerk-Backbone 5 verbundenen Geräte umfassen in verschiedenen Ausführungsformen Kombinationen aus einem oder mehreren Zugriffspunkten 7a, einem oder mehreren Gateways 7b zu anderen Prozessanlagen (z.B. über ein Intranet oder ein unternehmensweites Wide Area Network), einem oder mehreren Gateways 7c zu externen Systemen (z.B. zum Internet), einer oder mehreren Benutzerschnittstellen (UI)-Geräten 8, die stationäre (z.B. eine herkömmliche Bediener-Arbeitsstation) oder mobile Computergeräte (z.B. ein mobiles Smartphone), einem oder mehreren Servern 12 (z.B., die als Serverbank, als Cloud-Computersystem oder eine andere geeignete Konfiguration implementiert sein können), Steuergeräten 11, Ein-/Ausgabe-(E/A)-Karten 26 und 28, verdrahteten Feldgeräten 15-22, drahtlosen Gateways 35 und drahtlosen Kommunikationsnetzen 70. Die Kommunikationsnetze 70 können drahtlose Geräte umfassen, die drahtlose Feldgeräte 40-46, drahtlose Adapter 52a und 52b, Zugangspunkte 55a und 55b und einen Router 58 einschließen. Die drahtlosen Adapter 52a und 52b können jeweils mit nicht-drahtlosen Feldgeräten 48 und 50 verbunden sein. Die Steuerung 11 kann einen Prozessor 30, einen Speicher 32 und eine oder mehrere Steuerroutinen 38 umfassen. Obwohl in 1 nur eines der Geräte dargestellt ist, die direkt und/oder kommunikativ mit dem Netzwerk-Backbone 5 verbunden sind, versteht es sich, dass mehrere Geräte mit dem Netzwerk-Backbone 5 verbunden sein können, und dass die Prozessanlage 10 sogar mehrere Netzwerk-Backbones 5 umfassen kann.
  • Die UI-Geräte 8 können über das Netzwerk-Backbone 5 kommunikativ mit der Steuerung 11 und dem drahtlosen Gateway 35 verbunden sein. Die Steuerung 11 kann über Ein-/Ausgabe-(E/A)-Karten 26 und 28 kommunikativ mit verdrahteten Feldgeräten 15-22 verbunden sein und über das Netzwerk-Backbone 5 und ein drahtloses Gateway 35 mit den drahtlosen Feldgeräten 40-46 kommunikativ verbunden sein. Die Steuerung 11 kann zum Beispiel betrieben werden, um mit mindestens einigen der Feldgeräte 15-22 und 40-50 einen Stapelprozess oder einen kontinuierlichen Prozess zu implementieren. Die Steuerung 11, die zum Beispiel die von Emerson angebotene DeltaVTM-Steuerung sein kann, ist kommunikativ mit dem Backbone 5 des Prozesssteuerungsnetzwerks verbunden. Die Steuerung 11 kann auch mit Feldgeräten 15-22 und 40-50 kommunikativ verbunden sein, wobei jede gewünschte Hardware und zugehörige Software verwendet werden kann, zum Beispiel 4-20 mA-Standardgeräte, E/A-Karten 26, 28 und/oder ein intelligentes Kommunikationsprotokoll wie das FOUNDATION® Fieldbus-Protokoll, das HART®-Protokoll, das WirelessHART®-Protokoll usw. In der Ausführungsform, die in 1 dargestellt ist, sind die Steuerung 11, die Feldgeräte 15-22, 48, 50 und die E/A-Karten 26, 28 verdrahtete Geräte, und die Feldgeräte 40-46 sind drahtlose Feldgeräte.
  • Im Betrieb des UI-Geräts 8 kann das UI-Gerät 8 in einigen Ausführungsformen eine Benutzeroberfläche („UI“) ausführen, die es dem UI-Gerät 8 ermöglicht, Eingaben über eine Eingabeschnittstelle anzunehmen und Ausgaben auf einem Bildschirm anzuzeigen. Das UI-Gerät 8 kann vom Server 12 Daten empfangen (z.B. prozessbezogene Daten wie Prozessparameter, Protokolldaten und/oder alle anderen Daten, die erfasst und gespeichert werden können). In anderen Ausführungsformen kann die Benutzeroberfläche ganz oder zum Teil auf dem Server 12 ausgeführt werden, wobei der Server 12 Anzeigedaten zum UI-Gerät 8 übertragen kann. Das UI-Gerät 8 kann UI-Daten (die Anzeigedaten und Prozessparameterdaten enthalten können) über das Backbone 5 von anderen Knoten im Prozesssteuerungsnetzwerk oder System 2 wie z.B. der Steuerung 11, dem drahtlose Gateway 35 und/oder dem Server 12 empfangen. Auf der Basis der vom UI-Gerät 8 empfangenen UI-Daten stellt das UI-Gerät 8 eine Ausgabe (d.h. visuelle Darstellungen oder Grafiken, von denen einige während der Laufzeit aktualisiert werden können) bereit, die Aspekte des Prozesses im Zusammenhang mit dem Prozesssteuerungsnetzwerk oder System 2 darstellt. Der Benutzer kann die Steuerung des Prozesses auch beeinflussen, indem er am UI-Gerät 8 Eingaben bereitstellt. Beispielsweise kann das UI-Gerät 8 Grafiken bereitstellen, die zum Beispiel einen Tankfüllvorgang darstellen. In solch einem Szenario kann der Benutzer eine Tankfüllstandsmessung ablesen und entscheiden, dass der Tank gefüllt werden muss. Der Benutzer kann mit einer auf dem UI-Gerät 8 angezeigten Einlassventil-Grafik interagieren und einen Befehl eingeben, der die Öffnung des Einlassventils bewirkt.
  • In bestimmten Ausführungsformen kann das UI-Gerät 8 jede Art von Client implementieren, wie z.B. einen Thin Client, Web Client oder Thick Client. Beispielsweise kann das UI-Gerät 8 für den Großteil der für den Betrieb des UI-Geräts 8 erforderlichen Verarbeitung von anderen Knoten, Computern, UI-Geräten oder Servern abhängen, wie dies der Fall sein kann, wenn das UI-Gerät bezüglich des Speichers, der Akkuleistung usw. eingeschränkt ist (z.B. bei einem tragbaren Gerät). In solch einem Beispiel kann das UI-Gerät 8 mit dem Server 12 oder mit einem anderen UI-Gerät kommunizieren, wobei der Server 12 oder das andere UI-Gerät mit einem oder mehreren anderen Knoten (z.B. Servern) im Prozesssteuerungsnetzwerk oder System 2 kommunizieren kann und die an das UI-Gerät 8 zu übertragenden Anzeigedaten und/oder Prozessdaten bestimmen kann. Darüber hinaus kann das UI-Gerät 8 Daten, die sich auf empfangene Benutzereingaben beziehen, an den Server 12 übergeben, sodass der Server 12 auf Benutzereingaben bezogene Daten verarbeiten und entsprechend arbeiten kann. Mit anderen Worten, das UI-Gerät 8 kann wenig mehr tun, als Grafiken anzuzeigen und als Portal für einen oder mehrere Knoten oder Server zu fungieren, die die Daten speichern und die für den Betrieb des UI-Geräts 8 benötigten Routinen ausführen. Ein Thin Client-UI-Gerät bietet den Vorteil minimaler Hardwareanforderungen an das UI-Gerät 8.
  • In bestimmten Ausführungsformen kann das UI-Gerät 8 ein Web-Client sein. In solch einer Ausführungsform kann ein Benutzer des UI-Geräts 8 über einen Browser im UI-Gerät 8 mit dem Prozessleitsystem interagieren. Der Browser ermöglicht dem Benutzer über das Backbone 5 den Zugriff auf Daten und Ressourcen in einem anderen Knoten oder Server 12 (wie z.B. dem Server 12). Der Browser kann zum Beispiel vom Server 12 UI-Daten wie Anzeigedaten oder Prozessparameterdaten empfangen, wodurch der Browser Grafiken zur Steuerung und/oder Überwachung eines Teils oder der Gesamtheit des Prozesses darstellen kann. Der Browser kann auch Benutzereingaben (wie z.B. einen Mausklick auf eine Grafik) empfangen. Die Benutzereingabe kann bewirken, dass der Browser eine im Server 12 gespeicherte Informationsressource abruft oder darauf zugreift. Beispielsweise kann ein Mausklick bewirken, dass der Browser (vom Server 12) Information über die angeklickte Grafik abruft und anzeigt. In anderen Ausführungsformen kann der Großteil der Verarbeitung für das UI-Gerät 8 auf dem UI-Geräts 8 durchgeführt werden. Zum Beispiel kann das UI-Gerät 8 die zuvor erläuterte UI ausführen. Das UI-Gerät 8 kann auch lokal Daten speichern, darauf zugreifen und diese analysieren.
  • Im Betrieb kann ein Benutzer mit dem UI-Gerät 8 interagieren, um eine oder mehrere Geräte im Prozesssteuerungsnetzwerk oder System 2, wie z.B. Feldgeräte 15-22 oder Geräte 40-50, zu überwachen oder zu steuern. Darüber hinaus kann der Benutzer mit dem UI-Gerät 8 interagieren, um zum Beispiel einen Parameter, der einer in der Steuerung 11 gespeicherten Steuerroutine zugeordnet ist, zu modifizieren oder zu ändern. Der Prozessor 30 der Steuerung 11 implementiert oder beaufsichtigt eine oder mehrere Prozesssteuerroutinen (die in einem Speicher 32 gespeichert sind), die Regelkreise umfassen können. Der Prozessor 30 kann mit den Feldgeräten 15-22 und 40-50 und mit anderen Knoten kommunizieren, die mit dem Backbone 5 kommunikativ verbunden sind. Es ist anzumerken, dass alle hier beschriebenen Steuerroutinen oder Module (einschließlich Qualitätsvorhersage- und Fehlererkennungsmodule oder Funktionsblöcke) Teile aufweisen können, die durch verschiedene Steuerungen oder andere Geräte implementiert oder ausgeführt werden können, wenn dies gewünscht wird. Dementsprechend können die hier beschriebenen Steuerroutinen oder Module, die im Prozessleitsystem implementiert werden sollen, jede Form annehmen, einschließlich Software, Firmware, Hardware usw. Steuerroutinen können in jedem beliebigen Softwareformat implementiert sein, z.B. durch objektorientierte Programmierung, Leiterlogik, sequenzielle Funktionspläne, Funktionsblockdiagramme oder durch Verwendung anderer Softwareprogrammiersprachen oder Designansätze. Insbesondere können die Steuerroutinen von einem Benutzer über das UI-Gerät 8 definiert und implementiert werden. Die Steuerroutinen können in jedem gewünschten Typ Speicher wie z.B. Direktzugriffsspeicher (RAM) oder Nur-Lese-Speicher (ROM) der Steuerung 11 gespeichert sein. Dementsprechend können die Steuerroutinen zum Beispiel in einem oder mehreren EPROMs, EEPROMs, anwendungsspezifischen integrierten Schaltungen (ASICs) oder anderen Hardware- oder Firmware-Elementen der Steuerung 11 hart codiert sein. Daher kann die Steuerung 11 (in bestimmten Ausführungsformen durch einen Benutzer unter Verwendung eines UI-Geräts 8) dazu konfiguriert werden, eine Steuerstrategie oder Steuerroutine auf jede gewünschte Weise zu implementieren (z.B. zu empfangen, zu speichern und/oder auszuführen).
  • In manchen Ausführungsformen des UI-Geräts 8 kann ein Benutzer mit dem UI-Gerät 8 interagieren und in der Steuerung 11 mit sogenannten Funktionsblöcken eine Steuerstrategie implementieren, wobei jeder Funktionsblock ein Objekt oder ein anderer Teil (z.B. eine Unterroutine) einer Gesamtsteuerroutine ist und (über Verbindungen, die als Links bezeichnet werden) in Verbindung mit anderen Funktionsblöcken arbeitet, um Prozessregelkreise im Prozessleitsystem zu implementieren. Steuerbasierte Funktionsblöcke führen typischerweise eines von einer Eingabefunktion, die z.B. einem Messumformer, einem Sensor oder einem anderen Prozessparameter-Messgerät zugeordnet ist, einer Steuerfunktion, die z.B. einer Steuerroutine zugeordnet ist, die eine PID-, Fuzzy Logic-Steuerung usw. durchführt, oder einer Ausgabefunktion aus, die den Betrieb einer Vorrichtung wie z.B. eines Ventils steuert, um eine physische Funktion innerhalb des Prozessleitsystems durchzuführen. Natürlich gibt es Hybrid- und andere Typen von Funktionsblöcken. Die Funktionsblöcke können grafische Darstellungen aufweisen, die im UI-Gerät 8 angezeigt werden, sodass ein Benutzer die Art der Funktionsblöcke, die Verbindungen zwischen den Funktionsblöcken und die Ein-/Ausgaben, die jedem der im Prozessleitsystem implementierten Funktionsblöcke zugeordnet sind, leicht ändern kann. Funktionsblöcke können in die Steuerung 11 heruntergeladen und dort gespeichert und ausgeführt werden, was typischerweise der Fall ist, wenn diese Funktionsblöcke für 4-20 mA- Standardgeräte und einige Arten von intelligenten Feldgeräten wie HART-Geräte verwendet werden oder diesen zugeordnet sind, oder sie können in den Feldgeräten selbst gespeichert und implementiert werden, wie das bei Fieldbus-Geräten der Fall sein kann. Die Steuerung 11 kann eine oder mehrere Steuerroutinen 38 umfassen, die einen oder mehrere Regelkreise implementieren. Jeder Regelkreis wird typischerweise als Steuermodul bezeichnet und kann durch Ausführen eines oder mehrerer Funktionsblöcke ausgeführt werden.
  • Auf 1 Bezug nehmend, kommunizieren die drahtlosen Feldgeräte 40-46 in einem drahtlosen Netzwerk 70 unter Verwendung eines drahtlosen Protokolls wie z.B. das Wireless HART-Protokoll. In bestimmten Ausführungsformen kann das UI-Gerät 8 in der Lage sein, über das drahtlose Netzwerk 70 mit den drahtlosen Feldgeräten 40-46 zu kommunizieren. Solche drahtlosen Feldgeräte 40-46 können direkt mit einem oder mehreren anderen Knoten des Prozesssteuerungsnetzwerks oder Systems 2 kommunizieren, die ebenfalls für die drahtlose Kommunikation konfiguriert sind (zum Beispiel durch das drahtlose Protokoll). Um mit einem oder mehreren anderen Knoten zu kommunizieren, die nicht für die drahtlose Kommunikation konfiguriert sind, können die drahtlosen Feldgeräte 40-46 ein drahtloses Gateway 35 verwenden, das mit dem Backbone 5 verbunden ist. Natürlich könnten die drahtgebundenen Feldgeräte 15-22 und 40-46 anderen gewünschten Standards oder Protokollen entsprechen, wie z.B. drahtgebundenen oder drahtlosen Protokollen einschließlich aller in Zukunft entwickelten Standards oder Protokolle.
  • Das drahtlose Gateway 35 kann den Zugriff auf verschiedene drahtlose Geräte oder Knoten 40-46, 52-58 eines drahtlosen Kommunikationsnetzwerks 70 ermöglichen. Insbesondere ermöglicht das drahtlose Gateway 35 eine kommunikative Kopplung zwischen den drahtlosen Geräten 40-46, 52-58 und anderen Knoten des Prozesssteuerungsnetzwerks oder Systems 2 (einschließlich der Steuerung 11 von 1). Das drahtlose Gateway 35 ermöglicht in einigen Fällen eine kommunikative Kopplung durch Routen, Puffern und zeitliches Anpassen von Diensten zu unteren Schichten der drahtgebundenen und drahtlosen Protokollstapel (z.B. Adressenumwandlung, Routing, Paketsegmentierung, Priorisierung usw.), während eine gemeinsame Schicht oder mehrere Schichten der drahtgebundenen und drahtlosen Protokollstapel in einer beispielhaften Implementierung getunnelt werden. In anderen Fällen kann das drahtlose Gateway 35 Befehle zwischen drahtgebundenen und drahtlosen Protokollen, die keine gemeinsamen Protokollschichten haben, übersetzen.
  • Wie die verdrahteten Feldgeräten 15-22 können die drahtlosen Feldgeräte 40-46 des drahtlosen Netzwerks 70 in der Prozessanlage 10 physische Steuerfunktionen wie z.B. das Öffnen oder Schließen von Ventilen oder das Messen von Prozessparametern durchführen. Die drahtlosen Feldgeräte 40-46 sind jedoch dazu konfiguriert, über das drahtlose Protokoll des Netzwerks 70 kommunizieren. Die drahtlosen Feldgeräte 40-46, das drahtlose Gateway 35 und andere drahtlose Knoten 52-58 des drahtlosen Netzwerks 70 sind daher Produzenten und Verbraucher drahtloser Kommunikationspaketer.
  • In einigen Szenarien kann das drahtlose Netzwerk 70 nicht-drahtlose Geräte 48, 50 umfassen, die verdrahtete Geräte sein können. Zum Beispiel kann in 1 ein Feldgerät 48 ein älteres 4-20 mA-Gerät sein, und ein Feldgerät 50 kann ein herkömmliches verdrahtetes HART-Gerät sein. Zur Kommunikation innerhalb des Netzwerks 70 können die Feldgeräte 48 und 50 über einen jeweiligen drahtlosen Adapter (WA) 52a, 52b mit dem drahtlosen Kommunikationsnetzwerk 70 verbunden werden. Zusätzlich können die drahtlosen Adapter 52a, 52b andere Kommunikationsprotokolle wie Foundation® Fieldbus, PROFIBUS, DeviceNet usw. unterstützen. Darüber hinaus kann das drahtlose Netzwerk 70 in manchen Konfigurationen einen oder mehrere Netzwerkzugriffspunkte 55a, 55b umfassen, die separate physische Geräte in drahtgebundener Kommunikation mit dem drahtlosen Gateway 35 sein können oder mit dem drahtlosen Gateway 35 als integriertes Gerät vorgesehen sein können. Das drahtlose Netzwerk 70 kann auch einen oder mehrere Router 58 umfassen, um Pakete von einem drahtlosen Gerät zu einem anderen drahtlosen Gerät innerhalb des drahtlosen Kommunikationsnetzwerks 70 weiterzuleiten. Die drahtlosen Geräten 40-46 und 52-58 können über drahtlose Links 60 des drahtlosen Kommunikationsnetzwerks 70 miteinander und/oder mit dem drahtlosen Gateway 35 kommunizieren.
  • In bestimmten Ausführungsformen kann das Prozesssteuerungsnetzwerk oder System 2 andere Knoten aufweisen, die über andere drahtlose Protokolle mit dem Netzwerk-Backbone 5 kommunizieren. Zum Beispiel kann das Prozesssteuerungsnetzwerk oder System 2 einen oder mehrere drahtlose Zugriffspunkte 74 umfassen, die andere drahtlose Protokolle wie z.B. Wi-Fi oder andere IEEE 802.11-konforme drahtlose lokale Netzwerkprotokolle, mobile Kommunikationsprotokolle wie WiMAX (Worldwide Interoperability for Microwave Access), LTE (Long Term Evolution) oder andere ITU-R (International Telecommunication Union Radiocommunication Sector)-kompatible Protokolle, kurzwellige Funkkommunikation wie Feldkommunikator-Gerät NFC und Bluetooth oder andere drahtlose Kommunikationsprotokolle verwenden. Typischerweise ermöglichen solche drahtlose Zugriffspunkte 7a es handgeführten oder anderen tragbaren Computergeräten, über ein jeweiliges drahtloses Prozesssteuerungskommunikationsnetzwerk zu kommunizieren, das ein anderes als das drahtlose Netzwerk 70 ist und ein anderes drahtloses Protokoll unterstützt als das drahtlose Netzwerk 70. In manchen Ausführungsformen kommuniziert das UI-Gerät 8 unter Verwendung eines drahtlosen Zugangspunktes 7a über das Prozesssteuerungsnetzwerk oder System 2. In manchen Szenarien kommunizieren neben tragbaren Computergeräten auch eine oder mehrere Prozesssteuergeräte (z.B. Steuerung 11, Feldgeräte 15-22, drahtlose Geräte 35, 40-46, 52-58) über das von den Zugangspunkten 74 unterstützte drahtlose Protokoll.
  • Zusätzlich oder alternativ dazu kann das Prozesssteuerungsnetzwerk oder System 2 ein oder mehrere Gateways 7b, 7c zu Systemen umfassen, die außerhalb des unmittelbaren Prozessleitsystems liegen. In solchen Ausführungsformen kann das UI-Gerät 8 zur Steuerung, Überwachung oder sonstigen Kommunikation mit diesen externen Systemen verwendet werden. Typischerweise sind solche Systeme Empfänger und/oder Anbieter von Information, die vom Prozessleitsystem erzeugt oder verarbeitet werden. Zum Beispiel kann ein Anlagen-Gateway-Knoten 7b die direkt verbundene Prozessanlage 10 (die ihr eigenes Prozesssteuerdatennetzwerk-Backbone 5 aufweist) kommunikativ mit einer anderen Prozessanlage verbinden, die ein eigenes Netzwerk-Backbone aufweist. In einer Ausführungsform kann ein einzelner Netzwerk-Backbone 5 mehrere Prozessanlagen oder Prozesssteuerungsumgebungen bedienen.
  • In einem weiteren Beispiel kann der Anlagen-Gateway-Knoten 7b die direkt verbundene Prozessanlage kommunikativ mit einer älteren oder herkömmlichen Prozessanlage verbinden, die kein Prozesssteuerungsnetzwerk oder System 2 oder Backbone 5 aufweist. In diesem Beispiel kann der Anlagen-Gateway-Knoten 7b Nachrichten zwischen einem Protokoll, das vom Big Data Backbone 5 zur Prozesssteuerung der Anlage 10 verwendet wird, und einem anderen Protokoll, das von dem älteren System (z.B. Ethernet, Profibus, Fieldbus, DeviceNet, usw.) verwendet wird, umwandeln oder übersetzen. In solch einem Beispiel kann das UI-Gerät 8 zur Steuerung, Überwachung oder sonstigen Kommunikation mit älteren oder herkömmlichen Systemen oder Netzwerken verwendet werden.
  • Das Prozesssteuerungsnetzwerk oder System 2 kann einen oder mehrere externe System-Gateway-Knoten 7c umfassen, um das Prozesssteuerungsnetzwerk oder System 2 mit dem Netzwerk eines externen öffentlichen oder privaten Systems wie z.B. eines Laborsystems (z.B. Laboratory Information Management System oder LIMS), einer Bedienerrunden-Datenbank, einem Materialflusssystem, einem Wartungsmanagementsystem, einem Produktwarenwirtschaftssystem, einem Produktionsplanungssystem, einem Wetterdatensystem, einem Versandsystem, einem Verpackungssystem, dem Internet, dem Prozessleitsystem eines anderen Anbieters und/oder anderen externen Systemen kommunikativ zu verbinden. Die Gateway-Knoten 7c des externen Systems können beispielsweise die Kommunikation zwischen dem Prozessleitsystem und Personen außerhalb der Prozessanlage (z.B. Personal zu Hause) erleichtern.
  • Obwohl 1 eine Einzelsteuerung 11 mit einer endlichen Anzahl von Feldgeräten 15-22, 40-46 und 48-50 darstellt, die kommunikativ damit verbunden sind, ist dies nur eine beispielhafte und nicht einschränkende Ausführungsform. Eine beliebige Anzahl von Steuerungen 11 kann im Prozesssteuerungsnetzwerk oder System 2 enthalten sein, und jede der Steuerungen 11 kann mit einer beliebigen Anzahl von verdrahteten oder drahtlosen Geräten 15-22, 40-50 kommunizieren, um einen Prozess in der Anlage 10 zu steuern. Darüber hinaus kann die Prozessanlage 10 auch eine beliebige Anzahl von drahtlosen Gateways 35, Routern 58, Zugangspunkten 55, drahtlosen Prozesssteuerungsnetzwerken 70, Zugangspunkten 7a und/oder Gateways 7b, 7c umfassen.
  • In einer beispielhaften Konfiguration der Prozessanlage 10 bewegen sich eine Vielzahl von Drohnen 72a, 72b, die mit jeweiligen Kameras 74a, 74b und/oder anderen Sensoren 76a, 76b ausgestattet sind, durch die Feldumgebung der Prozessanlage 10, um den Zustand der Prozessanlage zu überwachen. Allgemein gesagt sind die Drohnen 72a, 72b unbemannte Roboterfahrzeuge. In manchen Beispielen sind die Drohnen 72a, 72b Flugdrohnen (z.B. unbemannte Luftfahrzeuge oder „UAVs“), während die Drohnen 72a, 72b in anderen Beispielen Boden- oder Wasserdrohnen oder Drohnen mit einer Kombination luft-, boden- und/oder wassergestützter Merkmale sind. Zu den Drohnen 72a, 72b gehörige Bordcomputergeräte 78a, 78b steuern die Bewegung der Drohnen 72a, 72b durch die Feldumgebung der Prozessanlage 10. Zusätzlich bilden die Bordcomputergeräte 78a, 78b eine Schnittstelle zu den Kameras 74a, 74b und/oder anderen Sensoren 76a, 76b und kommunizieren z.B. über das Netzwerk 70 mit dem Benutzerschnittstellengerät 8, den Steuerungen 11, dem Server 12 und/oder einer oder mehreren Datenbanken. Zum Beispiel können die Bordcomputergeräte 78a, 78b vom Benutzerschnittstellengerät 8 und/oder vom Server 12 Drohnen-Befehle empfangen oder auf Drohnen-Befehle zugreifen, die in einer oder mehreren Datenbanken gespeichert sind. Als weiteres Beispiel können die Bordcomputergeräte 78a, 78b Daten, die von den Kameras 74a, 74b und/oder anderen Sensoren 76a, 76b erfasst werden, an das UI-Gerät 8, die Steuerungen 11, den Server 12 und/oder jedes andere geeignete Computergerät übertragen. Dadurch zeigt das Benutzerschnittstellengerät 8 einem Bediener Daten an, die von den Kameras 74a, 74b und/oder anderen Sensoren 76a, 76b erfasst werden.
  • 2 ist ein Blockdiagramm eines beispielhaften Bordcomputergeräts 78 (z.B. das Bordcomputergerät 78a oder 78b), die zu einer beispielhaften Drohne 72 (z.B. der Drohne 72a oder 72b) gehört, und eines beispielhaften UI-Geräts 8, das in Verbindung mit Ausführungsformen des hier beschriebenen Systems zur Überwachung von Prozessanlagenbedingungen mit Drohnen verwendbar ist. Wie in 2 dargestellt, ist die beispielhafte Drohne 72 mit einer oder mehreren Kameras 74 (die Infrarotkameras umfassen können), einem oder mehreren anderen Sensoren 76 und dem Bordcomputergerät 78 ausgestattet. Die Kameras 74, die Sensoren 76 und das Bordcomputergerät 78 können an der Drohne 72 befestigt sein, darin enthalten, von ihr getragen werden oder anderweitig mit ihr verbunden sein. Die Sensoren 76 können zum Beispiel Ortsbestimmungssensoren, Temperatursensoren, Flammensensoren, Gassensoren, Windsensoren, Beschleunigungsmesser, Bewegungsmelder und/oder andere geeignete Sensoren umfassen. In manchen Beispielen ist die Drohne 72 außerdem mit zusätzlichem Zubehör wie z.B. Leuchten, Lautsprechern, Mikrofonen usw. ausgestattet. Zudem sind in manchen Beispielen Geräte zum Sammeln von Proben, medizinische Kits, Atemschutzgeräte, Defibrillatoreinheiten usw. an der Drohne 72 angebracht, darin enthalten, werden von ihr getragen oder sind anderweitig damit verbunden. Darüber hinaus kann die Drohne 72 mit zusätzlichen mechanischen Komponenten ausgestattet sein, um verschiedene Aktionen in der Anlage 10 durchzuführen. Zum Beispiel kann die Drohne 72 mit einem Roboterarm ausgestattet sein, um Schalter zu betätigen oder Proben zu sammeln.
  • Das Bordcomputergerät 78 bildet eine Schnittstelle zur Kamera 74, den Sensoren 76 und/oder zusätzlichen mechanischen Komponenten und führt Anwendungen aus, um Drohnenweg-Befehle zu empfangen, den Weg der Drohne 72 zu steuern und die von der Drohnenkamera 74 und/oder den Drohnensensoren 76 erfassten Daten zu speichern und zu übertragen. Das Bordcomputergerät 78 umfasst allgemein einen oder mehrere Prozessoren oder CPUs 80, einen Speicher 82, einen Direktzugriffsspeicher (RAM) 84, eine Ein-/Ausgabeschaltung (E/A) 86 und eine Kommunikationseinheit 88 zum Senden und Empfangen von Daten über ein lokales Netzwerk, ein Weitverkehrsnetz und/oder jedes andere geeignete Netzwerk, das drahtgebunden und/oder drahtlos sein kann (z.B. das Netzwerk 70.) Zum Beispiel kann das Bordcomputergerät 78 mit dem UI-Gerät 8, den Steuerungen 11, dem Server 12 und/oder jedem anderen geeigneten Computergerät kommunizieren.
  • Zusätzlich umfasst das Bordcomputergerät 78 eine Datenbank 90, die zur Drohne 72 gehörige Daten speichert. Zum Beispiel kann die Datenbank 90 von der Drohnenkamera 74 und/oder den Drohnensensoren 76 erfasste Daten speichern. Zusätzlich kann die Datenbank 90 Navigationsdaten wie z.B. eine Karte der Anlage 10 speichern. Die Karte kann einen oder mehrere Routen der Drohne 72 durch die Anlage 10 enthalten, sowie Ortsangaben verschiedener Ausrüstungen in der Anlage 10. Die Ortsangaben der verschiedenen Ausrüstungen der Anlage können Ortsangaben verschiedener Aussichtspunkte in der Nähe jeder einzelnen Ausrüstung umfassen. Zudem können die Ortsangaben der verschiedenen Ausrüstungen der Anlage auch Ortsangaben eines oder mehrerer drohnenbetätigter Schalter (z.B. Notausschalter) umfassen.
  • Der Speicher 82 umfasst außerdem eine Steuereinheit 92 und ein Betriebssystem 94 mit einer oder mehreren Drohnenanwendungen 96. Die Steuereinheit 94 ist dazu konfiguriert, mit dem UI-Gerät 8, den Steuerungen 11, dem Server 12 und/oder jedem anderen geeigneten Computergerät zu kommunizieren. Zum Beispiel kann die Steuereinheit 94 in manchen Ausführungsformen die Daten, die von der Drohnenkamera 74 und/oder den Drohnensensoren 76 erfasst werden, an das UI-Gerät 8, die Steuerungen 11, den Server 12 und/oder ein anderes geeignetes Computergerät übermitteln. Zudem ist die Steuereinheit 94 dazu konfiguriert, die Bewegung und die Aktionen der Drohne 72 in der Anlage zu steuern.
  • Allgemein gesagt können die auf dem Betriebssystem 94 laufenden Drohnenanwendungen 96 Anwendungen umfassen, die der Steuereinheit 94 Anweisungen zur Steuerung der Bewegung und der Aktionen der Drohne 72 in der Anlage bereitstellen. Zusätzlich können die Drohnenanwendungen 96 Anwendungen zur Analyse der von der Kamera 74 und/oder den Sensoren 76 erfassten Daten und zum Senden/Empfangen von Daten zum und vom UI-Gerät 8, den Steuerungen 11, dem Server 12 und/oder jedes andere geeignete Computergerät umfassen.
  • Zum Beispiel können Drohnenanwendungen 96 der Steuereinheit 94 Anweisungen zur Steuerung der Bewegung und der Aktionen der Drohne 72 in der Anlage bereitstellen, die eine Drohnen-Navigationsanwendung umfassen. Allgemein gesagt verwendet die Drohnen-Navigationsanwendung eine Kombination aus Navigationsdaten, die in der Datenbank 90 gespeichert sind, und Positionsdaten, die von den Sensoren 76 erfasst werden, um den aktuellen Ort einer Drohne 72 in der Anlage 10 zu bestimmen. Wenn ein Ziel für die Drohne 72 empfangen oder bestimmt wird, kann die Drohnen-Navigationsanwendung eine Route vom aktuellen Ort zum Zielort berechnen.
  • In manchen Beispielen können die Zielorte für die Drohne 72 vorkonfiguriert und in der Datenbank 90 gespeichert sein. Zum Beispiel kann die Datenbank 90 eine Route oder einen Weg speichern, der von der Drohne 72 wiederholt zurückzulegen ist, oder einen bestimmten Ort, an dem die Drohne 72 schweben soll (z.B. in der Nähe bestimmter Ausrüstungen in der Anlage). Zusätzlich kann die Datenbank 90 eine Liste von Routen oder Zielen speichern, die von der Drohne auf der Basis verschiedener Auslöser oder Bedingungen in der Anlage 10 befolgt oder erreicht werden sollen. Zum Beispiel kann die Datenbank 90 Daten speichern, die angeben, dass die Drohne 72 sich bei einem Alarm in der Anlage 10 oder einem Anlagenzustand zu einem bestimmten Ort in der Anlage 10 begeben oder einer bestimmten Route folgen soll. Zum Beispiel kann die Datenbank 90 eine Angabe eines sicheren Orts für die Drohne 72 oder einer sicheren Route für die Drohne 72 zum Verlassen der Anlage 10 im Falle eines Brands, eines Austritts toxischer Gase, einer Verschüttung, einer Explosion usw. speichern. Personen in der Anlage 10 können der Drohne 72 zum Beispiel unter gefährlichen Bedingungen aus der Anlage folgen. In anderen Fällen kann die Datenbank 90 eine Angabe eines Orts oder einer Route in der Nähe des Brands, des Austritts toxischer Gase, des Verschüttens, der Explosion usw. speichern (z.B. um Fotos, Videos oder andere Daten im Zusammenhang mit dem Alarm oder sonstigen Zustand zu erfassen, um eine „Einzäunung“ durch Drohnen herzustellen, die den Umkreis eines unsicheren Zustands sichert, oder um die Notfallhilfe in Bezug auf den Anlagenzustand zu führen). Darüber hinaus kann die Datenbank 90 Daten speichern, die angeben, dass die Drohne 72 sich bei Erfassung auslösender Sensordaten (z.B. Sensordaten, die einen Anlagenzustand anzeigen) zu einem bestimmten Ort beheben oder einer bestimmten Route folgen soll.
  • In anderen Beispielen können die Zielorte für die Drohne 72 auf der Basis von Befehlen (z.B. Bedienerbefehlen), die vom UI-Gerät 8, den Steuerungen 11, dem Server 12 und/oder einem anderen geeigneten Computergerät empfangen wurden, durch eine Navigationsanwendung gewählt werden. Zum Beispiel kann ein Bediener über das UI-Gerät 8 einen Bereich der Anlage 10 oder eine Ausrüstung in der Anlage 10 wählen, und das Ziel kann auf der Basis eines Orts gewählt werden, der in der Datenbank 90 für den Bereich der Anlage 10 oder die Ausrüstung gespeichert ist. Zudem kann ein Bediener über das UI-Gerät 8 eine Person in der Anlage 10 wählen, und das Ziel kann auf der Basis eines Orts gewählt werden, das der Person zugeordnet ist (z.B. auf der Basis von GPS-Daten, die der Person zugeordnet sind, oder auf der Basis von eines der Person zugeordneten Orts, der in der Datenbank 90 gespeichert ist). Als weiteres Beispiel kann ein Bediener Richtungssteuerungen verwenden (z.B. links, rechts, oben, unten, vorwärts, rückwärts, usw.), und ein Ziel kann von der Navigationsanwendung auf der Basis einer Bewegungsrichtung vom aktuellen Ort der Drohne 72 gewählt werden.
  • Darüber hinaus können Drohnenanwendungen 96, die der Steuereinheit 94 Anweisungen zum Steuern der Aktionen der Drohne 72 in der Anlage bereitstellen, Anwendungen umfassen, die Anweisungen an die Steuereinheit bereitstellen, um durch die Drohne einen Schalter zu betätigen (z.B. einen Notausschalter, um Geräte an unsicheren Orten wie z.B. Bohrstellen abzuschalten, eine Messung durchzuführen, eine Bewertung durchzuführen, eine Probe zu sammeln, eine Warnung auszugeben (über ein zusätzliches Lautsprechersystem), auf Sprachbefehle hören (über ein zusätzliches Mikrofon), einen Gegenstand (ein Werkzeug, ein medizinisches Kit usw.) aufzunehmen und zu einem anderen Ort innerhalb der Anlage zu bringen (z.B. zu einem Ort in der Nähe einer Person), Gegenstände nach Bedarf in verschiedene Situationen auszuwechseln, Personen in der Anlage bei Bedarf zu unterstützen (z.B. als „Handlanger“) usw. Wie bei den Navigationszielen, für die in einigen Beispielen von der Drohne 72 durchzuführende Aktionen vorkonfiguriert und in der Datenbank 90 gespeichert sind, können in anderen Beispielen von der Drohne 72 durchzuführende Aktionen auf der Basis von Befehlen (z.B. Bedienerbefehlen) gewählt werden, die von der Benutzeroberfläche 8, den Steuerungen 11, dem Server 12 und/oder jedem anderen geeigneten Computergerät empfangen werden.
  • Zusätzlich können Drohnenanwendungen 96 zur Analyse von Daten, die von der Kamera 74 und/oder den Sensoren 76 erfasst werden, eine Bilderkennungsanwendung zur Analyse von Fotos oder Videos von der Kamera 74 oder eine Sensoranalyseanwendung umfassen, die dazu konfiguriert ist, Daten von den Drohnensensoren 76 oder einer Kombination von beiden zu analysieren, um verschiedene Zustände in der Prozessanlage wie z .B. Überhitzung, Brand, Rauch, Bewegung, Lecks (einschließlich der Erkennung der Größe eines Lecks), Tropfen, Pfützen, Dampf oder Ventilzustände (einschließlich der Erkennung, ob ein Ventil geöffnet oder geschlossen ist) zu erkennen. Zudem können die Anwendungen, die auf dem Betriebssystem 90 ausgeführt werden, eine Sensoranalyseapplikation umfassen, um auf der Basis der Daten von den Drohnensensoren 76 die vorherrschende Windgeschwindigkeit und - richtung zu bestimmen (z.B. zur Unterstützung der Bewertung der Auswirkungen eines toxischen Gaslecks). Die Drohnenanwendungen 96 zur Analyse der von der Kamera 74 und/oder den Sensoren 76 erfassten Daten können außerdem eine Überwachungsanwendung umfassen. Zum Beispiel kann die Überwachungsanwendung Gesichtsmerkmale von Personen in der Anlage analysieren, um unbefugte Personen in der Anlage zu erkennen. Als weiteres Beispiel kann die Überwachungsanwendung von Bewegungsmeldern erfasste Daten analysieren, um festzustellen, ob sich Unbefugte durch die Anlage bewegen. Zusätzlich kann die Überwachungsanwendung Fotos oder Videos analysieren, die von der Drohnenkamera 74 aufgenommen wurden, um Hinweise auf unbefugtes Betreten der Prozessanlage wie zum Beispiel beschädigte Zäune oder aufgebrochene Türen zu erkennen.
  • Zusätzlich oder alternativ dazu können die Drohnenanwendungen 96 eine Anwendung umfassen, die bewirkt, dass die Drohne 72 mit anderen Drohnen in der Anlage interagiert, um ein Feld-Mesh und/oder ein drahtloses Backhaul herzustellen, um an einem Ort ohne vorhandene Kommunikationssysteme oder an einem Ort, an dem die Kommunikationsfunktionalität vorübergehend ausgefallen, die Kommunikation zu ermöglichen. Zusätzlich können die Anwendungen, die auf dem Betriebssystem 90 ausgeführt werden, eine GPS-Anwendung umfassen, die bewirkt, dass eine Drohne 72 entweder GPS-Informationen an andere Drohnen sendet oder GPS-Informationen von einer Master-Drohne empfängt, um ein lokales temporäres GPS-System zu erzeugen.
  • Um auf das UI-Gerät 8 zurückzukommen, kann dieses Gerät 8 ein Desktop-Computer wie eine herkömmliche Bediener-Arbeitsstation, eine Kontrollraumanzeige oder ein mobiles Computergerät wie ein Laptop-Computer, ein Tablet-Computer, ein Smartphone, ein Personal Digital Assistant (PDA), ein tragbares Computergerät oder ein anderes geeignetes Client-Computergerät sein. Das UI-Gerät 8 kann eine Anwendung zur Konfiguration der grafischen Anzeige ausführen, die von einem Konfigurationstechniker in der Konfigurationsumgebung benutzt wird, um verschiedene Definitionen oder Konfigurationen von Anzeigeansichten zu erstellen, zu generieren und/oder zu bearbeiten sowie verschiedene Definitionen oder Konfigurationen von Anzeigeelementen oder -konfigurationen zu erstellen, zu generieren und/oder zu bearbeiten. Das UI-Gerät 8 kann auch eine Bedieneranwendung ausführen, die von einem Bediener benutzt wird, um Prozessbedingungen in der Betriebsumgebung zu überwachen, zu beobachten und auf verschiedene Zustände zu reagieren. Das UI-Gerät 8 kann eine Anzeige 98 aufweisen. Ferner umfasst das UI-Gerät 8 einen oder mehrere Prozessoren oder CPUs 100, einen Speicher 102, einen Direktzugriffsspeicher (RAM) 104, eine Ein-/Ausgabeschaltung (E/A) 105 und eine Kommunikationseinheit 106 zum Senden und Empfangen von Daten über ein lokales Netzwerk, ein Weitverkehrsnetz und/oder jedes andere geeignete Netzwerk, das drahtgebunden und/oder drahtlos sein kann (z.B. das Netzwerk 70). Das UI-Gerät 8 kann mit den Steuerungen 11, dem Server 12, dem Drohnen-Bordcomputergerät 78 und/oder jedem anderen geeigneten Computergerät kommunizieren.
  • Der Speicher 102 kann ein Betriebssystem 108 umfassen, und Anwendungen, die auf dem Betriebssystem 108 ausgeführt werden, wie z.B. die Anwendung zur Konfiguration der grafischen Anzeige und der Bedieneranwendung, und eine Steuereinheit 110 zur Steuerung der Anzeige 98 und zur Kommunikation mit den Steuerungen 11, um den Online-Betrieb der Prozessanlage zu steuern. In manchen Ausführungsformen kann der Server 12 eine grafische Darstellung eines Teils der Prozessanlage zum UI-Gerät 8 übertragen, und die Steuereinheit 110 kann ihrerseits bewirken, dass die grafische Darstellung dieses Teils der Prozessanlage auf der Anzeige 98 dargestellt wird. Zusätzlich kann die Steuereinheit 110 von der E/A-Schaltung 105 Benutzereingaben wie z. B. eine Benutzereingabe vom Bediener oder Konfigurationstechniker (im Folgenden ebenfalls als Benutzer bezeichnet) empfangen und die Benutzereingabe in eine Anforderung, die grafische Anzeigeansicht in einer bestimmten Sprache darzustellen, in eine Anforderung, Grafiken, die bestimmte Bedienelemente anzeigen, in ein in der Anzeigeansicht enthaltenes aktives Überwachungs- oder Beobachtungsfenster aufzunehmen, in eine Anforderung, eine Anpassung eines Prozessparameters in einem der Prozessabschnitte anzuzeigen usw. übersetzen.
  • In manchen Ausführungsformen kann die Steuereinheit 110 die übersetzte Benutzereingabe an den Server 12 übermitteln, der die angeforderte Benutzeroberfläche erzeugen und zur Anzeige an das UI-Gerät 8 übertragen kann. In anderen Ausführungsformen kann die Steuereinheit 110 die neue Benutzeroberfläche auf der Basis der übersetzten Benutzereingabe generieren und die neue Benutzeroberfläche auf der Anzeige 98 des UI-Geräts 8 anzeigen. Wenn die übersetzte Benutzereingabe eine Anforderung ist, eine Anpassung an einen in einem der Prozessabschnitte enthaltenen Prozessparameter anzuzeigen, kann die Steuereinheit 110 den Prozessparameterwert auf der Anzeige 98 der Benutzereingabe des Bedieners entsprechend anpassen und den Steuerungen 11 Anweisungen zur Anpassung des Prozessparameters in der Prozessanlage bereitstellen. In weiteren Ausführungsformen kann die Steuereinheit 110 die übersetzte Benutzereingabe an den Server 12 übermitteln, der den angepassten Prozessparameterwert generieren und zur Anzeige an das UI-Gerät 8 übertragen kann, und den Steuerungen 11 Anweisungen zur Anpassung des Prozessparameters in der Prozessanlage bereitstellen.
  • Auf 3 Bezug nehmend, wird eine beispielhafte Benutzeroberflächen-Anzeigeansicht 200 einer Bedieneranwendung zur Überwachung von Prozessanlagenbedingungen mit Drohnen (z.B. Drohnen 72, 72a, 72b) gemäß einer Ausführungsform dargestellt. Die in 3 gezeigte Benutzeroberflächen-Anzeigeansicht 200 wird auf der Anzeige 92 des UI-Geräts 8 angezeigt. Die beispielhafte Benutzeroberflächen-Anzeigeansicht 200 umfasst eine Übersicht 202 der Prozessanlage, die neben Live-Videoeingaben 204, 206 von einer ersten und einer zweiten Drohne und einer Reihe von Drohnensteuerungen 207 angezeigt wird. Obwohl in 3 zwei Drohnen-Videoeingaben angezeigt werden, können in verschiedenen Ausführungsformen Live-Videoeingaben von mehr oder weniger Drohnen angezeigt werden. Zudem umfasst die Anzeigeansicht 200 der Benutzeroberfläche in manchen Ausführungsformen eine Anzeige von Sensordaten, die von Sensoren erfasst werden, die Drohnen in der Prozessanlage zugeordnet sind.
  • Allgemein gesagt, stellt die Übersicht 202 der Prozessanlage eine Darstellung des physischen Orts verschiedener Ausrüstungen in der Anlage sowie eine Darstellung des physischen Orts verschiedener Drohnen in der Prozessanlage relativ zur Ausrüstung dar. Zum Beispiel ist die Drohne 1 (208) in der Nähe der Ausrüstung 210 dargestellt. Als weiteres Beispiel ist die Drohne 2 (212) in der Nähe der Ausrüstung 214 dargestellt, und die Drohne 3 (216) ist in der Nähe der Ausrüstung 218 dargestellt. Demnach stellt die Live-Videoeingabe 204 der Drohne 1 eine Live-Eingabe eines Videos dar, das den aktuellen Zustand der Ausrüstung 210 anzeigt. Dementsprechend stellt die Live-Videoeingabe 206 der Drohne 2 eine Live-Eingabe eines Videos dar, das den aktuellen Zustand der Ausrüstung 214 anzeigt. Wenn in einem Beispiel ein Bediener eine Drohne wählt (z.B. mit einem Cursor 220), wird die Life-Eingabe dieser Drohne angezeigt. Wenn ein Bediener zum Beispiel die Drohne 3 (216) wählt, wird eine Live-Videoeingabe der Drohne 3 angezeigt, die eine Live-Eingabe des aktuellen Zustands der Ausrüstung 218 darstellt.
  • In manchen Beispielen bewegen sich die Drohnen auf festen Wegen in der Prozessanlage. In anderen Beispielen werden die Drohnen voll von Bedienern gesteuert. In weiteren Beispielen bewegen sich die Drohnen allgemein auf festen Wegen in der Prozessanlage, bis ein Bediener eine Maßnahme ergreift, um den Weg einer Drohne zu steuern. In einem Beispiel steuert ein Bediener die physischen Bewegungen jeder Drohne in der Prozessanlage manuell mit Hilfe der Drohnensteuerungen 207. Zum Beispiel kann ein Bediener verschiedene Drohnensteuerungen 207 verwenden, um die Drohnen physisch nach oben oder unten zu bewegen, zu drehen, vorwärts und rückwärts zu bewegen usw. Dadurch können die Drohnen in der Prozessanlage bewegt werden, um verschiedene Ausrüstungen in der Anlage aus der Nähe zu betrachten, damit ein Bediener Anlagenbedingungen über das Benutzerschnittstellengerät 8 überprüfen kann (d.h., ohne in die Feldumgebung einzudringen.)
  • In einem weiteren Beispiel steuert ein Bediener die physischen Bewegungen der Drohnen in der Prozessanlage, indem er die Darstellungen 208, 212, 216 jeder Drohne in der Übersicht 202 der Prozessanlage wählt, oder indem er in der Übersicht 202 der Prozessanlage Bereiche wählt, in denen die Drohnen eingesetzt werden sollen. Wenn in einem Beispiel ein Bediener eine Drohne wählt (z.B. mit einem Cursor 220) und sie anklickt und an einen neuen Ort zieht, wird die Drohne dazu konfiguriert, sich physisch zum neuen Ort zu begeben. Zum Beispiel kann eine Luftdrohne abheben und automatisch fliegen, um auf einer vorgegebenen sicheren Route einen Schwebepunkt zu erreichen, der dem ausgewählten Ort zugeordnet ist. Wenn in einem weiteren Beispiel ein Bediener einen Bereich der Übersicht 202 der Prozessanlage (und/oder einen Ausrüstungsgegenstand, der in der Übersicht 202 der Prozessanlage dargestellt ist) wählt, in dem sich derzeit keine Drohne befindet (z.B. mit dem Cursor 220), wird die Drohne dazu konfiguriert, sich physisch zu diesem Bereich der Prozessanlage zu begeben. Dies ermöglicht einem ein Bediener, eine Live-Videoeingabe des ausgewählten Bereichs der Prozessanlage betrachten, sobald die Drohne ihr Ziel erreicht hat.
  • In einem Beispiel wählt ein Bediener in der Übersicht 202 der Prozessanlage eine Drohne, um die Drohne dazu zu veranlassen, sich von ihrem aktuellen Ort zu einem sicheren Ort (der vom Bediener gewählt oder vorbestimmt sein kann) zu begeben. Wenn eine Person zum Beispiel an einem unsicheren Ort in der Prozessanlage eingeschlossen ist, kann der Bediener eine Drohne in der Nähe dieser Person wählen, die sie sich von ihrem aktuellen Ort zu einem sicheren Ort begibt, und die Person kann der Drohne zu diesem sicheren Ort folgen. In einem weiteren Beispiel wählt ein Bediener in der Übersicht 202 der Prozessanlage eine Drohne, damit die Drohne sich von einem Eingang der Prozessanlage zu einem bestimmten Bereich der Prozessanlage begibt. Wenn zum Beispiel in der Anlage ein Notfall auftritt, kann das Notfallpersonal der Drohne vom Eingang der Anlage bis zu einem Bereich der Anlage folgen, der vom Notfall betroffen ist.
  • Darüber hinaus wählt in einem Beispiel ein Bediener eine Drohne oder einen Bereich in der Übersicht 202 der Prozessanlage, um die Drohne dazu zu veranlassen, andere Aufgaben in der Anlage auszuführen. Zum Beispiel können Drohnen dazu konfiguriert werden, z.B. Personen durch Verbreiten einer Warnung oder Markieren eines Umkreises um einen unsicheren Bereich vor Gefahren in der Prozessanlage zu warnen. Zum Beispiel kann ein Betreiber einen unsicheren Bereich in der Übersicht 202 wählen, was eine Drohne dazu veranlasst, diesen Bereich zu erreichen und Personen vor Gefahren in diesem Bereich zu warnen. Zudem kann ein Bediener in manchen Fällen eine Drohne wählen, um ein medizinisches Kit, ein Atemschutzgerät oder eine Defibrillatoreinheit zu einer in einem unsicheren Bereich der Anlage eingeschlossenen Person zu transportieren. Darüber hinaus kann ein Bediener eine Drohne wählen, um einen Schalter in der Anlage zu betätigen (einschließlich Notausschalter zum Abschalten von Ausrüstungen an unsicheren Orten wie z.B. Bohrstellen), Messungen in der Anlage durchzuführen und/oder Proben von Produkten in der Anlage zu sammeln.
  • In 4 wird ein Ablaufplan 400 eines beispielhaften Verfahrens zur Überwachung von Prozessanlagenbedingungen mit unbemannten Roboterfahrzeugen gemäß einiger Ausführungsformen dargestellt. Zum Beispiel kann der Speicher 82 des Bordcomputergeräts 78 des unbemannten Roboterfahrzeugs 72 und/oder der Speicher 102 des Benutzerschnittstellengeräts 8 Anweisungen speichern, die bei Ausführung durch die Prozessoren 80 bzw. 100 das unbemannte Roboterfahrzeug 72 und/oder das Benutzerschnittstellengerät 8 jeweils dazu veranlassen, mindestens einen Teil des Verfahrens 400 durchzuführen. Das Verfahren 400 kann in Ausführungsformen zusätzliche, weniger und/oder alternative Aktionen umfassen.
  • In Block 402 kann das Benutzerschnittstellengerät 8 eine Angabe einer Benutzerauswahl eines Ausrüstungsgegenstands in einer Übersicht der Prozessanlage empfangen, die durch das Benutzerschnittstellengerät 8 angezeigt wird und wo ein unbemanntes Roboterfahrzeug 72 eingesetzt werden soll. Zum Beispiel kann die Übersicht der Prozessanlage eine Darstellung des physischen Orts verschiedener Ausrüstungen in der Prozessanlage anzeigen. In manchen Beispielen kann die Anzeige der Übersicht der Prozessanlage die Darstellung eines physischen Orts des unbemannten Roboterfahrzeugs in der Prozessanlage relativ zur Ausrüstung in der Übersicht der Prozessanlage umfassen.
  • In Block 404 kann die Angabe der Benutzerauswahl an ein zum unbemannten Roboterfahrzeug 72 gehöriges Bordcomputergeräts 78 übertragen werden.
  • In Block 406 kann auf der Basis der Angabe der Benutzerauswahl ein Zielort für das unbemannte Roboterfahrzeug 72 in der Prozessanlage bestimmt werden. In manchen Beispielen kann das Bestimmen des Zielorts für das unbemannte Roboterfahrzeug in der Prozessanlage das Bestimmen eines sicheren Schwebepunktes in der Nähe des physischen Orts des vom Benutzer gewählten Ausrüstungsgegenstands umfassen.
  • In Block 408 kann das unbemannte Roboterfahrzeug 72 gesteuert werden, um sich von einem aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage zu begeben. Zum Beispiel kann in manchen Beispielen das Steuern des unbemannten Roboterfahrzeugs 72, um sich vom aktuellen Ort zum Zielort zu begeben, ein Identifizieren eines sicheren Weges vom aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage und ein Steuern des unbemannten Roboterfahrzeugs 72 umfassen, um über die sichere Route vom aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage zu gelangen.
  • In Block 410 können von einer oder mehreren Kameras des unbemannten Roboterfahrzeugs 72 Kameradaten erfasst werden. In manchen Beispielen können die Kameradaten eine Live-Videoeingabe umfassen. In manchen Beispielen können die Kameradaten Infrarotkameradaten umfassen, die von einer oder mehreren Infrarotkameras des unbemannten Roboterfahrzeugs 72 erfasst werden.
  • In Block 412 können die Kameradaten an das Benutzerschnittstellengerät 8 übertragen werden.
  • In Block 414 können die Kameradaten neben der Übersicht der Prozessanlage angezeigt werden. In manchen Beispielen kann die Anzeige der Kameradaten neben der Übersicht der Prozessanlage auch die Anzeige eines Live-Videoeingangs neben der Übersicht der Prozessanlage auf der Basis der Kameradaten umfassen.
  • In manchen Beispielen kann das Verfahren 400 außerdem ein Erfassen von Sensordaten durch einen oder mehrere Sensoren des unbemannten Roboterfahrzeugs umfassen, ein Übertragen der Sensordaten an das Benutzerschnittstellengerät und/oder ein Anzeigen der Sensordaten durch das Benutzerschnittstellengerät (in 4 nicht dargestellt). Das Erfassen von Sensordaten durch einen oder mehrere Sensoren des unbemannten Roboterfahrzeugs kann das Erfassen von Sensordaten von einem oder mehreren von: Ortsbestimmungssensoren, Temperatursensoren, Flammensensoren, Gassensoren, Windsensoren, Beschleunigungsmessern und/oder Bewegungsmeldern des unbemannten Roboterfahrzeugs umfassen. Zudem kann das Verfahren 400 außerdem das Analysieren der Kameradaten und/oder Sensordaten umfassen, um einen Hinweis auf einen Zustand in der Prozessanlage zu erkennen. Der Zustand kann zum Beispiel ein Überhitzungszustand, ein Brandzustand, ein Rauchzustand, ein Leckzustand, ein Dampfzustand, einem stehender oder tropfenden Wasserzustand, ein Ventilzustand oder ein Bewegungszustand in der Prozessanlage usw. sein.
  • Darüber hinaus kann das Verfahren 400 in manchen Beispielen außerdem das Empfangen einer Angabe der Benutzerauswahl eines Schalters in der Prozessanlage umfassen, der durch das unbemannte Roboterfahrzeug betätigt werden soll, und ein Steuern eines Roboterarms des unbemannten Roboterfahrzeugs, um den Schalter in der Prozessanlage zu betätigen.
  • Zusätzlich kann das Verfahren 400 in manchen Beispielen außerdem ein Steuern eines Roboterarms des unbemannten Roboterfahrzeugs umfassen, um in der Prozessanlage eine Probe zu sammeln.
  • Die folgenden zusätzlichen Überlegungen gelten für die obigen Erläuterungen. In dieser Beschreibung beziehen sich Vorgänge, die als von einem Gerät oder Routine durchgeführt beschriebenen werden, allgemein auf Vorgänge oder Prozesse eines Prozessors, der Daten maschinenlesbaren Anweisungen entsprechend manipuliert oder umwandelt. Die maschinenlesbaren Anweisungen können auf einem Speichergerät, das mit dem Prozessor kommunikativ gekoppelt ist, gespeichert sein und aufgerufen werden. Das heißt, die hier beschriebenen Verfahren können durch einen Satz maschinenausführbarer Anweisungen verkörpert sein, die auf einem computerlesbaren Medium (d.h., auf einem Speichergerät) gespeichert sind, wie in 2 gezeigt. Wenn diese Anweisungen von einem oder mehreren Prozessoren eines entsprechenden Geräts (z.B. ein Server, eine Bediener-Arbeitsstation usw.) ausgeführt werden, veranlassen sie die Prozessoren, das Verfahren auszuführen. Wenn Anweisungen, Routinen, Module, Prozesse, Dienste, Programme und/oder Anwendungen hier als auf einem computerlesbaren Speicher oder auf einem computerlesbaren Medium gespeichert oder gesichert bezeichnet werden, sollen die Worte „gespeichert“ und „gesichert“ vorübergehende Signale ausschließen.
  • Obwohl die Begriffe „Bediener“, „Personal“, „Person“, „Benutzer“, „Techniker“, „Administrator“ und ähnliche Begriffe verwendet werden, um Personen in der Prozessanlagenumgebung zu beschreiben, die die hier beschriebenen Systeme, Geräte und Verfahren verwenden oder damit interagieren, sind diese Begriffe nicht einschränkend zu verstehen. Wenn in der Beschreibung ein bestimmter Begriff verwendet wird, wird dieser Begriff zum Teil aufgrund der traditionellen Tätigkeiten verwendet, die von Betriebspersonal ausgeübt werden, das Personal soll aber nicht auf diese bestimmte Tätigkeit eingeschränkt werden.
  • Darüber hinaus können in dieser Beschreibung Komponenten, Operationen oder Strukturen durch mehrere Instanzen implementiert werden, die als Einzelinstanz beschrieben werden. Obwohl einzelne Operationen eines oder mehrerer Verfahren als separate Operationen dargestellt und beschrieben werden, können eine oder mehrere Einzeloperationen gleichzeitig durchgeführt werden, und die Operationen müssen nicht unbedingt in der dargestellten Reihenfolge durchgeführt werden. Strukturen und Funktionalitäten, die in beispielhaften Konfigurationen als separate Komponenten dargestellt werden, können als kombinierte Struktur oder Komponente implementiert werden. Dementsprechend können Strukturen und Funktionalitäten, die als Einzelkomponente dargestellt werden, als separate Komponenten implementiert werden. Diese und andere Varianten, Zusätze und Verbesserungen liegen im Umfang des vorliegenden Gegenstands.
  • Bei der Implementierung in Software können alle hier beschriebenen Anwendungen, Dienste und Engines in jedem greifbaren, nicht flüchtigen computerlesbaren Speicher wie z.B. auf einer Magnetplatte, einer Laserplatte, einer Festkörperspeichervorrichtung, einer molekularen Speichervorrichtung oder einem anderen Speichermedium, in einem RAM oder ROM eines Computers oder Prozessors usw. gespeichert sein. Obwohl die hier offenbarten beispielhaften Systeme neben anderen Komponenten Software und/oder Firmware aufweisen, die auf Hardware ausgeführt wird, ist anzumerken, dass diese Systeme lediglich beispielhaft sind und nicht als einschränkend zu betrachten sind. Zum Beispiel wird in Betracht gezogen, dass eine oder jede dieser Hardware-, Software- und Firmware-Komponenten ausschließlich in Hardware, ausschließlich in Software oder in einer beliebigen Kombination von Hardware und Software verkörpert sein könnten. Demnach versteht es sich für den Fachmann, dass die angeführten Beispiele nicht der einzige Weg sind, solche Systeme zu implementieren.
  • Obwohl die vorliegende Erfindung anhand von spezifischen Beispielen beschrieben wurde, die nur veranschaulichend sind und die Erfindung nicht einschränken sollen, versteht es sich für den Fachmann, dass Änderungen, Ergänzungen oder Streichungen an den offenbarten Ausführungsformen möglich sind, ohne vom Geist und Umfang der Erfindung abzuweichen. Obwohl im Obigen eine detaillierte Beschreibung zahlreicher verschiedener Ausführungsformen gegeben wurde, ist die detaillierte Beschreibung ist lediglich als beispielhaft aufzufassen und beschreibt nicht jede Ausführungsform, da die Beschreibung jeder möglichen Ausführungsform unpraktisch, wenn nicht unmöglich wäre. Zahlreiche alternative Ausführungsformen könnten mit der aktuellen Technologie oder mit der nach dem Anmeldetag dieses Patents entwickelten Technologie implementiert werden.

Claims (23)

  1. Verfahren, umfassend: Empfangen, durch ein Benutzerschnittstellengerät, einer Angabe einer Benutzerauswahl eines Ausrüstungsgegenstands in einer durch das Benutzerschnittstellengerät angezeigten Übersicht einer Prozessanlage, in welcher ein unbemanntes Roboterfahrzeug eingesetzt werden soll, wobei die Übersicht der Prozessanlage eine Darstellung der physischen Orte verschiedener Ausrüstungen innerhalb der Prozessanlage anzeigt; Übertragen, durch das Benutzerschnittstellengerät, der Angabe der Benutzerauswahl an ein zum unbemannten Roboterfahrzeug gehöriges Bordcomputergerät; Bestimmen, durch das zum unbemannten Roboterfahrzeug gehörige Bordcomputergerät, eines Zielorts für das unbemannte Roboterfahrzeug in der Prozessanlage auf der Basis der Angabe der Benutzerauswahl; Steuern, durch das zum unbemannten Roboterfahrzeug gehörige Bordcomputergerät, des unbemannten Roboterfahrzeugs, um von einem aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage zu gelangen; Erfassen von Kameradaten durch eine oder mehrere Kameras des unbemannten Roboterfahrzeugs; Übertragen, durch das zum unbemannten Roboterfahrzeug gehörige Bordcomputergerät, der Kameradaten an das Benutzerschnittstellengerät; und Anzeigen, durch das Benutzerschnittstellengerät, der Kameradaten neben der Übersicht der Prozessanlage.
  2. Verfahren nach Anspruch 1, wobei das Bestimmen des Zielorts für das unbemannte Roboterfahrzeug in der Prozessanlage auf der Basis der Angabe der Benutzerauswahl ein Bestimmen eines sicheren Schwebeflugpunkts in der Nähe des physischen Orts des vom Benutzer gewählten Ausrüstungsgegenstands umfasst.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Steuern des unbemannten Roboterfahrzeugs, um von einem aktuellen Ort zum Zielort zu gelangen, umfasst: Identifizieren, durch das zum unbemannten Roboterfahrzeug gehörige Bordcomputergerät, einer sicheren Route vom aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage; und Steuern des, durch das Bordcomputergerät, des unbemannten Roboterfahrzeugs, um vom aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage zu gelangen.
  4. Verfahren nach einem der Ansprüche 1 bis 3, insbesondere nach Anspruch 1, wobei das Anzeigen der Kameradaten neben der Übersicht der Prozessanlage das Anzeigen einer Live-Videoeingabe auf der Basis der Kameradaten neben der Übersicht der Prozessanlage umfasst.
  5. Verfahren nach einem der Ansprüche 1 bis 4, insbesondere nach Anspruch 1, außerdem umfassend: Anzeigen, durch das Benutzerschnittstellengerät, einer Darstellung eines physischen Orts des unbemannten Roboterfahrzeugs in der Prozessanlage relativ zur Ausrüstung in der Übersicht der Prozessanlage.
  6. Verfahren nach einem der Ansprüche 1 bis 5, insbesondere nach Anspruch 1, wobei das Erfassen von Kameradaten durch eine oder mehrere Kameras des unbemannten Roboterfahrzeugs das Erfassen von Infrarot-Kameradaten durch eine oder mehrere Infrarotkameras des unbemannten Roboterfahrzeugs umfasst.
  7. Verfahren nach einem der Ansprüche 1 bis 6, insbesondere nach Anspruch 1, außerdem umfassend: Erfassen von Sensordaten durch einen oder mehrere Sensoren des unbemannten Roboterfahrzeugs; Übertragen, durch das zum unbemannten Roboterfahrzeug gehörige Bordcomputergerät, der Sensordaten zum Benutzerschnittstellengerät; und Anzeigen der Sensordaten durch das Benutzerschnittstellengerät, und/oder wobei das Erfassen von Sensordaten durch einen oder mehrere Sensoren des unbemannten Roboterfahrzeugs das Erfassen von Sensordaten von einem oder mehreren von Ortsbestimmungssensoren, Temperatursensoren, Flammensensoren, Gassensoren, Windsensoren, Beschleunigungsmessern und Bewegungsmeldern des unbemannten Roboterfahrzeugs umfasst, und/oder außerdem umfassend: Analysieren, durch das zum unbemannten Roboterfahrzeug gehörige Bordcomputergerät, einer oder mehrerer der Kameradaten und der Sensordaten, um einen Hinweis auf einen Zustand in der Prozessanlage zu erkennen, und/oder wobei der Zustand eines oder mehreres von einem Überhitzungszustand, einem Brandzustand, einem Rauchzustand, einem Leckzustand, einem Dampfzustand, einem stehenden oder tropfenden Wasserzustand, einem Ventilzustand oder einem Bewegungszustand in der Prozessanlage ist.
  8. Verfahren nach einem der Ansprüche 1 bis 7, insbesondere nach Anspruch 1, außerdem umfassend: Empfangen, durch ein Benutzerschnittstellengerät, einer Angabe einer Benutzerauswahl eines Schalters in der Prozessanlage, der vom unbemannten Roboterfahrzeug betätigt werden soll; und Steuern, durch das Bordcomputergerät, eines Roboterarms des unbemannten Roboterfahrzeugs, um den Schalter in der Prozessanlage zu betätigen.
  9. Verfahren nach einem der Ansprüche 1 bis 8, insbesondere nach Anspruch 1, außerdem umfassend: Steuern, durch das Bordcomputergerät, eines Roboterarms des unbemannten Roboterfahrzeugs, um in der Prozessanlage eine Probe zu sammeln.
  10. Benutzerschnittstellengerät, das dazu konfiguriert ist, mit einem unbemannten Roboterfahrzeug zu kommunizieren, das mit einer oder mehreren Kameras ausgestattet ist, wobei das Benutzerschnittstellengerät umfasst: eine Anzeige; einen oder mehrere Prozessoren; und einen oder mehrere Speicher, die einen Satz computerausführbarer Anweisungen speichern, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, das Benutzerschnittstellengerät dazu veranlassen: von einem zum unbemannten Roboterfahrzeug gehörigen Bordcomputergerät Daten zu empfangen, die von einer oder mehreren Kameras des unbemannten Roboterfahrzeugs erfasst werden; neben den von einer oder mehreren Kameras des unbemannten Roboterfahrzeugs erfassten Daten eine Übersicht der Prozessanlage anzuzeigen, wobei die Übersicht der Prozessanlage eine Darstellung der physischen Orte verschiedener Ausrüstungen in der Prozessanlage darstellt; eine Bedienerauswahl einer Ausrüstung in der Übersicht der Prozessanlage zu empfangen, in welcher das unbemannte Roboterfahrzeug eingesetzt werden soll; und an das Bordcomputergerät des unbemannten Roboterfahrzeugs einen Befehl zu senden, der den ausgewählten Ausrüstungsgegenstand in der Übersicht der Prozessanlage angibt, wo das unbemannte Roboterfahrzeug eingesetzt werden soll.
  11. Benutzerschnittstellengerät nach Anspruch 10, wobei die Anweisungen, die das Benutzerschnittstellengerät dazu veranlassen, die von einer oder mehreren Kameras des unbemannten Roboterfahrzeugs erfassten Daten anzuzeigen, Anweisungen umfassen, um auf der Basis der von einer oder mehreren Kameras erfassten Daten eine Live-Videoeingabe anzuzeigen.
  12. Benutzerschnittstellengerät nach Anspruch 10 oder 11, wobei die Anweisungen die das Benutzerschnittstellengerät dazu veranlassen, die Übersicht der Prozessanlage anzuzeigen, Anweisungen umfassen, um eine Darstellung eines physischen Orts des unbemannten Roboterfahrzeugs in der Prozessanlage relativ zur Ausrüstung in der Übersicht der Prozessanlage anzuzeigen.
  13. Benutzerschnittstellengerät nach einem der Ansprüche 10 bis 12, insbesondere nach Anspruch 10, wobei die Anweisungen die Benutzerschnittstelle außerdem dazu veranlassen, Sensordaten anzuzeigen, die von einem oder mehreren Sensoren des unbemannten Roboterfahrzeugs erfasst werden, und/oder wobei die Sensordaten Daten umfassen, die von einem oder mehreren von Ortsbestimmungssensoren, Temperatursensoren, Flammensensoren, Gassensoren, Windsensoren, Beschleunigungsmessern oder Bewegungsmeldern des unbemannten Roboterfahrzeugs erfasst werden.
  14. Benutzerschnittstellengerät nach einem der Ansprüche 10 bis 13, insbesondere nach Anspruch 10, wobei die Anweisungen die Benutzerschnittstelle außerdem dazu veranlassen: eine Angabe einer Benutzerauswahl eines Schalters in der Prozessanlage, der vom unbemannten Roboterfahrzeug betätigt werden soll, zu empfangen; und an das Bordcomputergerät des unbemannten Roboterfahrzeugs einen Befehl zu senden, der die Auswahl des vom unbemannten Roboterfahrzeug zu betätigenden Schalters angibt.
  15. Unbemanntes Roboterfahrzeug, umfassend: eine oder mehrere Kameras, die dazu konfiguriert sind, Bilder aufzunehmen, während das unbemannte Roboterfahrzeug sich in einer Prozessanlage bewegt, einen oder mehrere Prozessoren; und einen oder mehrere Speicher, die einen Satz computerausführbarer Anweisungen speichern, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, das unbemannte Roboterfahrzeug dazu veranlassen: Befehle von einem Benutzerschnittstellengerät zu empfangen, wobei die Befehle vom Benutzerschnittstellengerät Befehle umfassen, die einen Ausrüstungsgegenstand in der Prozessanlage angeben, wo das unbemannte Roboterfahrzeug eingesetzt werden soll; auf der Basis der Angabe des Ausrüstungsgegenstands in der Prozessanlage einen Zielort in der Prozessanlage zu bestimmen; sich von einem aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage zu begeben; und von einer oder mehreren Kameras aufgenommene Bilder zum Benutzerschnittstellengerät zu übertragen.
  16. Unbemanntes Roboterfahrzeug nach Anspruch 15, wobei die Anweisungen, die das unbemannte Roboterfahrzeug dazu veranlassen, auf der Basis der Angabe des Ausrüstungsgegenstands in der Prozessanlage den Zielort für das unbemannte Roboterfahrzeug in der Prozessanlage zu bestimmen, Anweisungen umfassen, die das unbemannte Roboterfahrzeug dazu veranlassen, einen sicheren Schwebepunkt in der Nähe eines physischen Orts des Ausrüstungsgegenstands in der Prozessanlage zu bestimmen.
  17. Unbemanntes Roboterfahrzeug nach Anspruch 15 oder 16, wobei die Anweisungen, die das unbemannte Roboterfahrzeug dazu veranlassen, sich von der aktuellen Position zum Zielort zu begeben, Anweisungen umfassen, die das unbemannte Roboterfahrzeug dazu veranlassen: eine sichere Route vom aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage zu identifizieren; und sich auf der sicheren Route vom aktuellen Ort in der Prozessanlage zum Zielort in der Prozessanlage zu begeben.
  18. Unbemanntes Roboterfahrzeug nach einem der Ansprüche 15 bis 17, insbesondere nach Anspruch 15, wobei das unbemannte Roboterfahrzeug ein unbemanntes Luftfahrzeug ist.
  19. Unbemanntes Roboterfahrzeug nach einem der Ansprüche 15 bis 18, insbesondere nach Anspruch 15, wobei die eine oder mehreren Kameras eine oder mehrere Infrarotkameras umfassen.
  20. Unbemanntes Roboterfahrzeug nach einem der Ansprüche 15 bis 19, insbesondere nach Anspruch 15, außerdem umfassend: einen oder mehrere Sensoren, die dazu konfiguriert sind, Sensordaten zu erfassen, während das unbemannte Roboterfahrzeug sich in der Prozessanlage bewegt; und wobei die Anweisungen das unbemannte Roboterfahrzeug außerdem dazu veranlassen, Sensordaten, die von einem oder mehreren Sensoren erfasst werden, zum Benutzerschnittstellengerät zu übertragen, und/oder wobei der oder die Sensoren eines oder mehreres von Ortsbestimmungssensoren, Temperatursensoren, Flammensensoren, Gassensoren, Windsensoren, Beschleunigungsmessern und Bewegungsmeldern umfassen, und/oder wobei die Anweisungen das unbemannte Roboterfahrzeug außerdem dazu veranlassen: eine oder mehrere der Kameradaten und Sensordaten zu analysieren, um einen Hinweis auf einen Zustand in der Prozessanlage zu erkennen, und/oder wobei der Zustand eines oder mehreres von einem Überhitzungszustand, einem Brandzustand, einem Rauchzustand, einem Leckzustand, einem Dampfzustand, einem stehenden oder tropfenden Wasserzustand, einem Ventilzustand oder einem Bewegungszustand in der Prozessanlage ist.
  21. Unbemanntes Roboterfahrzeug nach einem der Ansprüche 15 bis 20, insbesondere nach Anspruch 15, außerdem umfassend: einen Roboterarm, der dazu konfiguriert ist: (i) Schalter in der Prozessanlage zu betätigen und/oder (ii) in der Prozessanlage Proben zu sammeln.
  22. Unbemanntes Roboterfahrzeug nach einem der Ansprüche 15 bis 21, insbesondere nach Anspruch 15, wobei die Anweisungen das unbemannte Roboterfahrzeug außerdem dazu veranlassen: eine Angabe einer Benutzerauswahl eines Schalters in der Prozessanlage, der vom unbemannten Roboterfahrzeug betätigt werden soll, zu empfangen; und den Roboterarm des unbemannten Roboterfahrzeugs zu steuern, um den Schalter in der Prozessanlage zu betätigen.
  23. Computer-lesbares Speichermedium, welches Instruktionen enthält, die mindestens einen Prozessor dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 9, zu implementieren, wenn die Instruktionen durch mindestens einen Prozessor ausgeführt werden.
DE102019126463.4A 2018-10-01 2019-10-01 Drohnengestützte bedienerrunden Pending DE102019126463A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862739829P 2018-10-01 2018-10-01
US62/739,829 2018-10-01
US16/580,793 US11281200B2 (en) 2018-10-01 2019-09-24 Drone-enabled operator rounds
US16/580,793 2019-09-24

Publications (1)

Publication Number Publication Date
DE102019126463A1 true DE102019126463A1 (de) 2020-04-02

Family

ID=68539028

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019126463.4A Pending DE102019126463A1 (de) 2018-10-01 2019-10-01 Drohnengestützte bedienerrunden

Country Status (3)

Country Link
US (1) US11281200B2 (de)
DE (1) DE102019126463A1 (de)
GB (1) GB2580470B (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020130236A1 (de) 2020-11-16 2022-05-19 Gestra Ag Unbemanntes Luftfahrzeug und betreffendes Luftfahrzeug-System
DE102020134444A1 (de) 2020-12-21 2022-06-23 Endress+Hauser Process Solutions Ag Die Erfindung betrifft ein Verfahren zum Durchführen einer Inbetriebnahme eines Feldgeräts oder eines Serviceauftrags an dem Feldgerät in einer Anlage der Automatisierungstechnik

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210080948A1 (en) * 2019-09-12 2021-03-18 Transportation Ip Holdings, Llc Vehicle control system
US11462089B1 (en) * 2020-02-24 2022-10-04 General Cybernation Group, Inc. Smoke auto-detection and control for industrial flares
US11341830B2 (en) 2020-08-06 2022-05-24 Saudi Arabian Oil Company Infrastructure construction digital integrated twin (ICDIT)
US11669087B2 (en) * 2021-07-15 2023-06-06 Howe & Howe Inc. Controlling and monitoring remote robotic vehicles
US20230377465A1 (en) * 2022-05-18 2023-11-23 Microavia International Limited Ground control station
WO2024064129A1 (en) * 2022-09-19 2024-03-28 Cameron International Corporation Systems and methods for inspections using unmanned autonomous vehicles

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8577538B2 (en) 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US10254220B2 (en) * 2016-10-04 2019-04-09 General Electric Company Method and system for remote inspection of industrial assets
US8682502B2 (en) * 2007-03-28 2014-03-25 Irobot Corporation Remote vehicle control system and method
US20090095096A1 (en) * 2007-10-10 2009-04-16 Charles Edwin Dean Hazardous materials sensing robot
US20100286859A1 (en) 2008-11-18 2010-11-11 Honeywell International Inc. Methods for generating a flight plan for an unmanned aerial vehicle based on a predicted camera path
US20160132046A1 (en) 2013-03-15 2016-05-12 Fisher-Rosemount Systems, Inc. Method and apparatus for controlling a process plant with wearable mobile control devices
US10649413B2 (en) 2013-03-15 2020-05-12 Fisher-Rosemount Systems, Inc. Method for initiating or resuming a mobile control session in a process plant
US9578465B2 (en) * 2013-10-21 2017-02-21 Endress + Hauser Process Solutions Ag Autonomous wireless field monitor
US10301018B2 (en) * 2014-10-17 2019-05-28 Tyco Fire & Security Gmbh Fixed drone visualization in security systems
US20160282972A1 (en) 2015-03-24 2016-09-29 Uni-Pixel Displays, Inc. Metal mesh touch sensor with randomized pitch
US9845164B2 (en) * 2015-03-25 2017-12-19 Yokogawa Electric Corporation System and method of monitoring an industrial plant
US10008123B2 (en) 2015-10-20 2018-06-26 Skycatch, Inc. Generating a mission plan for capturing aerial images with an unmanned aerial vehicle
US11048248B2 (en) * 2016-05-09 2021-06-29 Strong Force Iot Portfolio 2016, Llc Methods and systems for industrial internet of things data collection in a network sensitive mining environment
US20200348662A1 (en) * 2016-05-09 2020-11-05 Strong Force Iot Portfolio 2016, Llc Platform for facilitating development of intelligence in an industrial internet of things system
US11543805B2 (en) 2016-10-17 2023-01-03 Fisher-Rosemount Systems, Inc. Systems and apparatus for distribution of process control data to remote devices
FR3061339B1 (fr) * 2016-12-22 2021-12-10 Suez Int Systeme et procede et produit programme d'ordinateur de determination d'une nuisance generee par une installation industrielle, installation industrielle equipee du systeme
US10329017B2 (en) * 2017-03-13 2019-06-25 General Electric Company System and method for integrating flight path and site operating data
WO2019109164A1 (en) * 2017-10-28 2019-06-13 Avestec Technologies Inc. Method and system of an surface attachment of modular unmanned aerial vehicle for inspection
US10606249B2 (en) * 2018-03-16 2020-03-31 Saudi Arabian Oil Company Multi-vector engineering methods and apparatus for isolated process control systems
JP2019202682A (ja) * 2018-05-24 2019-11-28 東京瓦斯株式会社 無人飛行体及びその飛行制御方法
US20200259896A1 (en) * 2019-02-13 2020-08-13 Telefonaktiebolaget Lm Ericsson (Publ) Industrial Automation with 5G and Beyond
US11275391B2 (en) * 2019-05-13 2022-03-15 The Boeing Company In-service maintenance process using unmanned aerial vehicles

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020130236A1 (de) 2020-11-16 2022-05-19 Gestra Ag Unbemanntes Luftfahrzeug und betreffendes Luftfahrzeug-System
DE102020130236B4 (de) 2020-11-16 2022-06-09 Gestra Ag Unbemanntes Luftfahrzeug und betreffendes Luftfahrzeug-System
DE102020134444A1 (de) 2020-12-21 2022-06-23 Endress+Hauser Process Solutions Ag Die Erfindung betrifft ein Verfahren zum Durchführen einer Inbetriebnahme eines Feldgeräts oder eines Serviceauftrags an dem Feldgerät in einer Anlage der Automatisierungstechnik

Also Published As

Publication number Publication date
GB2580470A (en) 2020-07-22
GB201914021D0 (en) 2019-11-13
US20200103881A1 (en) 2020-04-02
GB2580470B (en) 2023-03-08
US11281200B2 (en) 2022-03-22

Similar Documents

Publication Publication Date Title
DE102019126463A1 (de) Drohnengestützte bedienerrunden
DE102014103538A1 (de) Überwachungsmodul für die Prozesssteuerung
DE102014103424A1 (de) Kontextsensitive mobile Steuerung in einem Prozessleitsystem
DE102014103531A1 (de) Verfahren und vorrichtung zum regeln eines workflows in einer verfahrenstechnischen anlage
DE102014103402A1 (de) Generieren von Prüflisten in einer Prozesssteuerungsumgebung
DE102014103486A1 (de) Mobile Schaltzentrale mit Echtzeit-Umgebungssensitivität
DE102014103422A1 (de) Verfahren und Vorrichtung zur nahtlosen Zustandsübertragung zwischen UI-Geräten in einer mobilen Schaltzentrale
DE102014103397A1 (de) Verfahren und vorrichtung zum nahtlosen übergang zwischen benutzeroberflächengeräten in einer mobilen schaltzentrale
EP3467597B1 (de) Verfahren und system zur inbetriebnahme und/oder wartung eines regel- und steuergerätes für feldgeräte für eine gebäudeautomatisierung
DE102014103377A1 (de) Verfahren und Vorrichtung für die nahtlose Zustandsübertragung zwischen UI-Geräten in einer mobilen Schaltzentrale
DE102019122343A1 (de) Abweichungskorrektur für industrielle anwendungen mit erweiterter realität
DE102014103383A1 (de) Verfahren und Vorrichtung für nahtlose Zustandsübertragung zwischen Benutzeroberflächengeräten in einer mobilen Schaltzentrale
DE102014103440A1 (de) Mobile Analyse physikalischer Phänomene in einer verfahrenstechnischen Anlage
DE102014103426A1 (de) Verfahren und Vorrichtung zum Steuern einer verfahrenstechnischen Anlage mit mobilen standortsensitiven Steuerungsgeräten
DE102016101200A1 (de) Inbetriebnahme von Feldvorrichtungen in einem durch Big Data unterstützten Prozesssteuerungssystem
DE102017124802A1 (de) Alarmhandhabungs- und -beobachtungsunterstützung in einer prozessanlage
DE112020006058T5 (de) Zentralisierte wissensdatenbank und data-mining-system
DE102017116706A1 (de) Prozesssteuerungskommunikationsarchitektur
DE102014102844A1 (de) Großdaten in Prozesssteuerungssystemen
DE102014103511A1 (de) Verfahren und Gerät zum Bestimmen der Position eines mobilen Steuerungsgeräts in einer Prozessanlage
DE102018124268A1 (de) Projekte innerhalb eines prozesssteuerungs-betriebsmittelverwaltungssystems
DE112018004345T5 (de) Gebäudemanagementsystem mit datenaufnahme in intelligente entitäten und schnittstelle von intelligenten entitäten mit unternehmensanwendungen
DE102018117573A1 (de) Generische verschattung in industriellen prozessanlagen
DE102017115897A1 (de) Architekturunabhängige Prozesssteuerung
DE102020124555A1 (de) Edge-gateway-system mit kontextgebundener prozessanlagen-wissensdatenbank

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05B0023020000

Ipc: G07C0011000000

R012 Request for examination validly filed