DE102018215560A1 - Verfahren zum Koordinieren und Überwachen von Objekten - Google Patents

Verfahren zum Koordinieren und Überwachen von Objekten Download PDF

Info

Publication number
DE102018215560A1
DE102018215560A1 DE102018215560.7A DE102018215560A DE102018215560A1 DE 102018215560 A1 DE102018215560 A1 DE 102018215560A1 DE 102018215560 A DE102018215560 A DE 102018215560A DE 102018215560 A1 DE102018215560 A1 DE 102018215560A1
Authority
DE
Germany
Prior art keywords
area
objects
computing system
sub
automated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018215560.7A
Other languages
English (en)
Inventor
Keerthana Govindaraj
Andreas Albrecht
Volker Henrichs
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to US16/549,591 priority Critical patent/US11287799B2/en
Priority to CN201910794879.4A priority patent/CN110867095B/zh
Publication of DE102018215560A1 publication Critical patent/DE102018215560A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4063Monitoring general control system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4097Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using design data to control NC machines, e.g. CAD/CAM
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4189Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system
    • G05B19/41895Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system using automatic guided vehicles [AGV]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096833Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Koordinieren und Überwachen von Objekten (210, 211, 212) in einem vorgegebenen räumlichen Bereich (200), der mehrere Teilbereiche (201, 202) umfasst, denen jeweils ein Teilbereichs-Rechensystem (110) zugeordnet ist, wobei mittels des jeweiligen Teilbereichs-Rechensystems (110) unter Verwendung von Sensoreinheiten (250, 251) Positions- und Bewegungsinformationen von Objekten (210, 211, 212) in dem jeweiligen Teilbereich (201, 202) ermittelt werden, wobei mittels des jeweiligen Teilbereichs-Rechensystems (110) unter Verwendung einer jeweiligen Umgebungskarte des jeweiligen Teilbereichs und den Positions- und Bewegungsinformationen eine jeweilige aktuelle Umgebungskarte des jeweiligen Teilbereichs erstellt wird, wobei die jeweiligen aktuellen Umgebungskarten an ein gemeinsames, übergeordnetes Rechensystem (130) übermittelt werden, wobei mittels des übergeordneten Rechensystems (130) eine aktuelle Umgebungskarte des vorgegebenen räumlichen Bereichs (200) erstellt und basierend darauf Bewegungen von automatisierten, mobilen Objekten (211) in dem räumlichen Bereich unter Ermittlung von Bewegungsvorgaben koordiniert werden, und wobei die Bewegungsvorgaben an die Teilbereichs-Rechensysteme (110) und darüber an die automatisierten, mobilen Objekt (211) übermittelt werden.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Koordinieren und Überwachen von Objekten in einem vorgegebenen räumlichen Bereich sowie ein System und ein Computerprogramm zu dessen Durchführung.
  • Stand der Technik
  • Systeme bzw. Rechnersysteme in Umgebungen der industriellen Fertigung sind in der Regel nicht oder zumindest nicht beliebig oder nicht flexibel untereinander vernetzt. Wenn eine Vernetzung angelegt ist, so sind die Verknüpfungen in der Regel sternförmig, indem einzelne Fertigungsanlagen oder Prüfsysteme mit einem Zentralrechner verbunden sind. Sollen Informationen von bestimmten Netzwerkteilnehmern oder Einzelsystemen bzw. Einzelrechnern erhalten werden, so greift man üblicherweise über den Zentralrechner auf die Informationen der Einzelsysteme zu.
  • Sicherheitssysteme zur Überwachung von Produktionsanlagen sind in der Regel ebenfalls nur lokal an die jeweils zugehörige Anlage bzw. Fertigungsanlage angebunden.
  • Offenbarung der Erfindung
  • Erfindungsgemäß werden ein Verfahren zum Koordinieren und Überwachen von Objekten sowie ein System und ein Computerprogramm zu dessen Durchführung mit den Merkmalen der unabhängigen Patentansprüche vorgeschlagen. Vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche sowie der nachfolgenden Beschreibung.
  • Ein erfindungsgemäßes Verfahren dient zum Koordinieren und Überwachen von Objekten in einem vorgegebenen räumlichen Bereich, insbesondere mit Hilfe eines Systems vernetzter Rechensysteme. Bei dem räumlichen Bereich kann es sich insbesondere um eine Fläche, insbesondere innerhalb oder außerhalb von Gebäuden, oder um ein oder mehrere Gebäude mit oder ohne Außenflächen, wie beispielsweise um eine industrielle Fertigungshalle oder Fabrikumgebung oder dergleichen handeln. Als Objekt kommen hierbei insbesondere Fertigungsanlagen, Roboter, Fahrzeuge aber auch Personen in Betracht. Der vorgegebene räumliche Bereich umfasst dabei mehrere Teilbereiche, insbesondere kann der Bereich in diese Teilbereiche aufgeteilt sein, zweckmäßig ist aber auch, wenn sich die Teilbereiche teilweise überlappen. Den Teilbereichen ist jeweils ein Teilbereichs-Rechensystem zugeordnet. Ein solches Teilbereichs-Rechensystem kann eine einzelne Recheneinheit bzw. ein einzelner Computer sein, denkbar ist aber auch ein System aus mehreren vernetzten Recheneinheiten.
  • Mittels des jeweiligen Teilbereichs-Rechensystems werden nun unter Verwendung von Sensoreinheiten Positions- und Bewegungsinformationen von Objekten in dem jeweiligen Teilbereich ermittelt und insbesondere laufend aktualisiert. Dabei können Positionsinformationen von statischen Objekten wie stationären Fertigungsanlagen ermittelt werden. Von mobilen Objekten wie Fahrzeugen und Personen hingegen können Positions- und Bewegungsinformationen (also beispielsweise auch eine Geschwindigkeit und eine Bewegungsrichtung) ermittelt werden. Als Sensoreinheiten kommen beispielsweise Kameras, insbesondere Videokameras und Stereokameras, Ultraschallsensoren, Mikrofone, Annäherungssensoren, RADAR-Einheiten, Time-of-Flight-Kameras, LIDAR-Einheiten, Funkmodule, insbesondere WLAN-Einheiten und Bluetooth-Einheiten, Inertialsensoren und Abstandssensoren in Betracht. Es können also alle vorhandenen Möglichkeiten zur Erfassung von Positions- und Bewegungsinformationen von Objekten in dem jeweiligen Teilbereich verwendet werden, die dann auf dem Teilbereichs-Rechensystem gesammelt werden.
  • Mittels des jeweiligen Teilbereichs-Rechensystems wird dann unter Verwendung einer jeweiligen Umgebungskarte des jeweiligen Teilbereichs und den Positions- und Bewegungsinformationen eine jeweilige aktuelle Umgebungskarte des jeweiligen Teilbereichs erstellt. Als eine Umgebungskarte kommt dabei zunächst insbesondere eine Karte mit statischen Informationen in Frage, die auf Grundrissen, Hallenplänen, CAD-Dateien und dergleichen basieren kann, bevorzugt auch bereits mit der Position stationärer Objekte wie Fertigungsanlagen. Besonders zweckmäßig ist hierbei eine 3D-Umgebungskarte. Mit den zuvor genannten Positions- und Bewegungsinformationen kann aus einer solchen (statischen) Umgebungskarte dann eine aktuelle Umgebungskarte mit aktuellen Positionen von Objekten und insbesondere auch der Bewegung bzw. Bewegungsrichtung von mobilen Objekten erstellt werden.
  • Die jeweiligen aktuellen Umgebungskarten werden an ein gemeinsames, übergeordnetes Rechensystem übermittelt und zudem vorzugsweise auch abstrahiert. Solch ein übergeordnetes Rechensystem kann insbesondere ebenfalls eine einzelne Recheneinheit bzw. ein einzelner Computer sein, denkbar ist aber auch System aus verteilten Recheneinheiten. Unter dem Abstrahieren der aktuellen Umgebungskarten ist dabei insbesondere zu verstehen, dass ein Detailgrad der Umgebungskarten verringert wird. Eine Reduktion des Detailgrades kann z.B. durch einen Übergang von einer 3D-Karte, die auch die 3-dimensionalen Objektkonturen enthält, auf eine 2D-Karte erfolgen, die nur noch die groben Grund- und/oder Umrisse statischer und/oder beweglicher Objekte enthält. Auf der obersten Ebene können bewegliche Objekte beispielsweise auch nur noch als Marker und größere Objekte als Polygone 2-dimensional dargestellt werden.
  • Die aktuellen Umgebungskarten können dabei direkt an das übergeordnete Rechensystem übermittelt werden, denkbar sind aber auch eine oder mehrere Ebenen mit zwischengeordneten Rechensystemen, mittels welchen die aktuellen Umgebungskarten auf dem Weg von den Teilbereichs-Rechensystemen zum übergeordneten Rechensystem zusammengefasst und vorzugsweise in Zwischenstufen abstrahiert werden. Auf diese Weise können insbesondere größere Bereiche effektiver erfasst werden, da gewisse Hierarchieebenen gebildet werden. Bei kleineren Bereichen kann jedoch auch eine Zwischenebene oder eine direkte Übermittlung von den Teilbereichs-Rechensystemen an das übergeordnete Rechensystem ausreichend sein.
  • Mittels des übergeordneten Rechensystems wird dann eine aktuelle Umgebungskarte des vorgegebenen Bereichs erstellt und basierend darauf werden Bewegungen von automatisierten, mobilen Objekten in dem Bereich unter Ermittlung von Bewegungsvorgaben koordiniert. Es werden die einzelnen aktuellen Umgebungskarten also - insbesondere auf einem abstrahierten Niveau - zusammengefasst, sodass auf dem übergeordneten Rechensystem ein Überblick über sämtliche Objekte im Bereich, also beispielsweise einer Fertigungshalle vorliegen. Damit ist eine besonders einfache und schnelle Koordinierung der automatisierten, mobilen Objekte möglich und es können Bewegungsvorgaben gemacht werden, also beispielsweise Routen vorgegeben werden. Unter automatisierten, mobilen Objekten sind dabei insbesondere automatisiert bewegbare (fahrerlose) Transportfahrzeuge zu verstehen. Für eine solche Koordination ist eine abstrahierte Umgebungskarte, d.h. eine Umgebungskarte mit geringerer Detailtiefe in der Regel ausreichend, was zu einer effizienteren Bearbeitung führt. So ist für die Ermittlung einer Fahrtroute beispielsweise nicht nötig zu wissen, welche aktuelle Position ein Roboterarm einer ansonsten stationären Fertigungsanlage hat. Relevant ist beispielsweise vielmehr, an welchen Positionen sich andere mobile Objekte aufhalten und/oder welche Bewegungsrichtung diese haben, um Kollisionen zu vermeiden. Zudem ist es zweckmäßig, wenn dabei eine Priorisierung von Objekten vorgenommen wird, sodass diese Vorrang vor anderen Objekten haben.
  • Bevorzugt werden statische und/oder nicht automatisierte, mobile Objekte - also beispielsweise Personen - bei der Ermittlung der Bewegungsvorgaben für die automatisierten, mobilen Objekte als Hindernisse berücksichtigt. Besonders vorteilhaft ist dies bei Hindernis-Objekten, die selbst nicht über Kommunikationsmöglichkeiten wie Funkmodule verfügen, sondern nur passiv erfasst werden können. Dies gilt beispielsweise besonders für Personen.
  • Die Bewegungsvorgaben werden dann - ggf. über die zwischengeordneten Rechensysteme - an die Teilbereichs-Rechensysteme und darüber an die automatisierten, mobilen Objekte übermittelt. Auf den Teilbereichs-Rechensystemen liegen die aktuellen Umgebungskarten mit höherem bzw. hohem Detailgrad vor, sodass darüber eine besonders genaue Steuerung der mobilen Objekte erfolgen kann.
  • Bevorzugt kann dabei aus einer mittels des übergeordneten Rechensystems erstellten aktuellen Umgebungskarte des vorgegebenen Bereichs eine aktuelle Umgebungskarte eines Teilbereichs erstellt und an das entsprechende Teilbereichs-Rechensystem übermittelt werden. So können sich beispielsweise aus einem Teilbereich in einen anderen Teilbereich bewegende Objekte berücksichtigt werden. Die auf der untersten Ebene vorhandenen Umgebungskarten können auf diese Weise aktualisiert werden.
  • Nachfolgend soll die Erfindung nochmals mit anderen Worten und an einem konkreteren Beispiel zusammengefasst werden. Es wird also ein verteiltes Netzwerk, beispielsweise ein Edge-Server-Netzwerk, mit verschiedenen Ebenen vorgeschlagen, das eine möglichst lückenlose 3D-Umgebungskarte einer Fabrik- bzw. Fertigungshalle aus à-priori-Daten, d.h. schon vorhandenen oder hinterlegen Daten (z.B. 3D-CAD-Daten, Hallenplänen, etc.), sowie aus Daten von Sensoreinheiten erstellt und verwaltet. Die Fertigungshalle ist dabei in verschiedene, aneinander angrenzende oder sich auch teilweise überlappende Teilbereiche im Sinne von Überwachungszellen unterteilt, die mit Sensoreinheiten ausgestattet sind, die insbesondere auch als Überwachungssensoren (z.B. Stereo-Kameras) dienen, so dass eine lückenlose Überwachung der einzelnen Teilbereiche und somit des gesamten Bereichs möglich ist.
  • Die Zusammenführung und Auswertung der 3D-Daten sowie eine Verkehrs- und Kollisionsüberwachung der Objekte in den einzelnen Teilbereichen werden von den dafür zuständigen Teilbereichs-Rechensystemen, beispielsweise Edge-Servern, auf der untersten Ebene durchgeführt. Diese Teilbereichs-Rechensysteme erstellen jeweils eine detaillierte 3D-Umgebungskarte ihres eigenen Teilbereichs, die auf Basis der Daten der Sensoreinheiten laufend aktualisiert werden kann. Dadurch sind alle beweglichen oder nicht beweglichen Objekte inkl. deren augenblickliche Bewegungszustände im Teilbereichs-Rechensystem bekannt.
  • Die detaillierten 3D-Umgebungskarten der Teilbereiche der untersten Ebene werden in Stufen entsprechend der Netzwerkhierarchie nach oben weitergereicht und auf jeder Ebene insbesondere ein Stück weiter abstrahiert. Dadurch wird eine Informationsreduktion erreicht. Auf der höchsten Ebene werden alle Informationen in einem übergeordneten Rechensystem, sozusagen einem Super-Edge-Server, zusammengeführt - jedoch mit einem relativ hohen Abstraktionsgrad. Dieses übergeordnete Rechensystem verfügt nun über eine grobe Umgebungskarte des gesamten Bereichs, wie z.B. einer Fertigungshalle, die ebenfalls laufend aktualisiert werden kann.
  • Mit Hilfe dieser Umgebungskarte kann das übergeordnete Rechensystem den gesamten Verkehrsfluss aller automatisierten, mobilen Objekte (insbesondere autonome Roboter oder Fahrzeuge) in dem Bereich vorausplanen und in geeigneter Weise koordinieren. Dabei wird insbesondere auf eine Optimierung des Verkehrsflusses sowie auf eine Vermeidung von Kollisionen geachtet. Insbesondere können nicht vernetzte Objekte im Verkehr (also Personen bzw. Mitarbeiter) vor Unfällen geschützt werden.
  • Eine Bahnplanung bzw. allgemein Bewegungsvorgaben für die einzelnen automatisierten, mobilen Objekte werden nun in umgekehrter Weise nach unten in der Netzwerkhierarchie durchgereicht. Hierbei können das übergeordnete Rechensystem sowie alle Rechensysteme auf Zwischenebenen bestimmte Informationen zwischen den anderen Rechensystemen und ggf. auch Objekten weiterverteilen. Eine konkrete Überwachung sowie eine lokale Koordination der automatisieren, mobilen Objekte wird schließlich von den Teilbereichs-Rechensystemen auf der untersten Ebene übernommen. Sie steuern die automatisierten Objekte auf der untersten Ebene. Die automatisieren, mobilen Objekte selbst benötigen damit nur noch eine sehr einfache, eingeschränkte Sensorausstattung und Navigationsfunktionalität, die ihnen beispielsweise nur als Notbrems- oder Notausweichfunktion sowie zur Feinnavigation im Nahbereich (z.B. beim Andocken an die Station einer Linie, um Produkte, Halbzeuge oder Rohmaterialien zu verteilen) dient.
  • Auf diese Weise wird eine Verbesserung der Performance der gesamten Fertigungshalle (oder Fabrik) durch Verkehrsflussoptimierung (insbesondere beim Einsatz einer Vielzahl von vernetzten, autonomen Transportsystemen in einem gemischten Szenario mit nicht kommunizierenden Objekten) erreicht. Zudem wird eine Erhöhung der Sicherheit aller Objekte insbesondere der nicht vernetzten menschlichen Objekte - durch Realisierung von Sicherheitsfunktionen (z.B. Kollisionsvermeidung bei autonomen Transportsystemen, Warnung von Personen, Unterstützung von Sicherheitsfunktionen der Maschinenüberwachung durch Erkennung von Objekten, die in den Sicherheitsbereich einer Anlage eindringen) erreicht. Außerdem sind Einsparungen bei der Sensor- und Rechnerausstattung der automatisierten, mobilen Objekte möglich.
  • Ein erfindungsgemäßes System mit mehreren Rechensystemen ist, insbesondere programmtechnisch, dazu eingerichtet, ein erfindungsgemäßes Verfahren durchzuführen.
  • Auch die Implementierung des Verfahrens in Form eines Computerprogramms ist vorteilhaft, da dies besonders geringe Kosten verursacht, insbesondere wenn ein ausführendes Steuergerät noch für weitere Aufgaben genutzt wird und daher ohnehin vorhanden ist. Geeignete Datenträger zur Bereitstellung des Computerprogramms sind insbesondere magnetische, optische und elektrische Speicher, wie z.B. Festplatten, Flash-Speicher, EEPROMs, DVDs u.a.m. Auch ein Download eines Programms über Computernetze (Internet, Intranet usw.) ist möglich.
  • Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und der beiliegenden Zeichnung.
  • Die Erfindung ist anhand eines Ausführungsbeispiels in der Zeichnung schematisch dargestellt und wird im Folgenden unter Bezugnahme auf die Zeichnung beschrieben.
  • Figurenliste
    • 1 zeigt schematisch ein erfindungsgemäßes System in einer bevorzugten Ausführungsform in einer Umgebung.
    • 2 zeigt schematisch einen Ablauf eines erfindungsgemäßen Verfahrens in einer bevorzugten Ausführungsform.
  • Ausführungsform(en) der Erfindung
  • In 1 ist schematisch ein erfindungsgemäßes System 100 mit zahlreichen Rechensystemen, mit dem ein erfindungsgemäßes Verfahren durchgeführt werden kann, in einer bevorzugten Ausführungsform in einem räumlichen Bereich 200 dargestellt.
  • In 2 ist schematisch ein Ablauf eines erfindungsgemäßen Verfahrens in einer bevorzugten Ausführungsform dargestellt, wie es auf einem System, wie in 1 dargestellt, durchgeführt werden kann.
  • Nachfolgend sollen das System und das Verfahren anhand der 1 und 2 übergreifend beschrieben werden.
  • Das System 100 im Sinne eines Netzwerks bzw. vernetzter Rechensysteme besteht aus mehreren Ebenen und mehreren Rechensystemen, insbesondere sog. Edge-Servern, die über die verschiedenen Netzwerkebenen hinweg verteilt und verknüpft sein können. Es gibt eine oberste Ebene mit einem übergeordneten Rechensystem 130 (insbesondere ein sog. Super-Edge-Server), das selbst auch ein verteiltes System sein kann. Dieses übergeordnete Rechensystem 130 führt im gezeigten Beispiel die Informationen aller anderen Rechensysteme 120 auf den untergeordneten Zwischenebenen zusammen und verteilt sie ggf. bedarfsgerecht an die betreffenden Rechensysteme weiter.
  • Die unterste Netzwerkebene besteht aus mehreren Teilbereichs-Rechensystemen 110 und ist mit den Rechensystemen 120 der darüber liegenden Zwischenebenen vernetzt. Die unterste Netzwerkebene zeichnet sich dadurch aus, dass sie die in dem Bereich 200, bei dem es sich vorliegend um eine Fertigungshalle handelt, verteilten Sensoreinheiten zur Erkennung und Verfolgung aller in der Fertigungshalle befindlichen Objekte an das Gesamtnetzwerk bzw. an das System anbindet. Die Architektur und die Zahl an Zwischenebenen des Systems orientieren sich an der Größe des Bereichs 200 und nach der Anzahl der zu verbindenden Rechensysteme. Auch die mobilen Objekte selbst können temporär oder permanent Teil des Gesamtnetzwerkes bzw. Systems sein. Es wird hierbei insbesondere davon ausgegangen, dass alle (vemetzten) Objekte und Rechensysteme eindeutig identifizierbar sind (z.B. über eine eindeutige IP oder MAC Adresse).
  • Überdies wird zweckmäßigerweise davon ausgegangen, dass das System über eine globale Umgebungskarte (insbesondere in 3D) der Fertigungshalle und deren Unterteilung in Teilbereiche, die hier als Überwachungszellen ausgebildet sind, verfügt. In 1 sind beispielhaft zwei Teilbereiche 201 und 202 gezeigt, die zugehörigen (statischen) Karten sind in 2 mit K1 und K2 bezeichnet. Darin sind insbesondere auch die Positionen der einzelnen Teilbereichs-Rechensysteme sowie die Positionen und Ausrichtungen der Sensoreinheiten vorhanden. Nachdem die Umgebungskarte des Bereichs 200 erstellt wurde, sind die Positionen und ggf. die Ausrichtungen aller Sensoreinheiten (z.B. Kameras) bekannt.
  • Für jeden Teilbereich ist dabei jeweils ein eindeutig identifizierbares Teilbereichs-Rechensystem zuständig. Solange das System 100 keine neue Umgebungskarte erhält, kann es davon ausgehen, dass die bisherige Umgebungskarte Gültigkeit besitzt. In 1 sind beispielhaft einige Funkmodule 250 und einige Kameras 251 als Sensoreinheiten in dem Bereich 200 bzw. den Teilbereichen 201, 202 gezeigt, die Positions- und Bewegungsinformationen der Objekte in dem jeweiligen Teilbereich erfassen, was in 2 mit I1 bzw. I2 bezeichnet ist. Die Objekte selbst sind in 1 mit 210, 211 und 212 bezeichnet, wobei 210 stationäre bzw. statische Objekte bezeichnen, 211 hingegen automatisierte mobile Objekte, für die eine geplanten Route eingezeichnet ist. Mit 212 sind Personen als Objekte bezeichnet.
  • Der Aufbau und die Verwaltung der zeitlich veränderlichen, adaptiven (aktuellen) Umgebungskarte des Bereichs 200, in 2 mit K bezeichnet, erfolgt verteilt auf verschiedene Ebenen im System 100. Die Teilbereichs-Rechensysteme 110 auf den jeweils untersten Netzwerkebenen verfügen zunächst nur über eine detaillierte Umgebungskarte ihres eigenen lokalen Teilbereichs, d.h. gemäß 1 des Teilbereichs 201 oder 202, für die sie selbst zuständig sind. In 2 sind dieses Umgebungskarten mit K1 und K2 bezeichnet. Diese werden unter Verwendung der Positions- und Bewegungsinformationen I1 , I2 zu aktuellen Umgebungskarten K'1 bzw. K'2 .
  • Auf einer Zwischenebene im System 100 kann es übergeordnete Umgebungskarten mit einer geringeren Detaillierung bzw. einer höheren Abstraktion geben. Ein Abstraktionsniveau der jeweiligen Umgebungskarten entspricht dabei insbesondere der jeweiligen Hierarchiestufe der Zwischenebene des für sie zuständigen Rechensystems im System 100. Die Umgebungskarten auf der untersten Ebene sind mit maximaler Detaillierung verfügbar. Die übergeordnete Umgebungskarte K des gesamten Bereichs wird im übergeordneten Rechensystem (also insbesondere dem sog. Super-Edge-Server) auf der obersten Netzwerkebene in einer groben Granularität bzw. auf einem hohen Abstraktionsniveau aufgebaut und verwaltet.
  • Die Umgebungskarte des gesamten Bereichs ist zunächst nur dort bekannt. Bei Bedarf kann das übergeordnete Rechensystem diese Umgebungskarten (oder bestimmte Informationen daraus) aber auch an andere untergeordnete Rechensysteme (sowohl in Zwischenebenen als auch auf der untersten Ebene) weiterverteilen. Das übergeordnete Rechensystem 130 kann darüber hinaus auch gezielt detaillierte Umgebungskarten von Teilbereichen untergeordneter Rechensysteme (oder bestimmte Informationen daraus) anfragen und weiterverteilen (z.B. wenn aus einer Überwachungszelle bzw. einem Teilbereich Informationen eines benachbarten Teilbereichs angefragt werden) oder ggf. selbst verarbeiten.
  • Der Bereich 200 ist in Teilbereiche aufgeteilt, die idealerweise lückenlos aneinander angrenzen oder sich ggf. auch gegenseitig überlappen können. Wie erwähnt, sind in 1 beispielhaft zwei Teilbereiche 201, 202 gezeigt. Die Form, Anordnung und Größe der Teilbereiche kann beliebig sein. Jedes Teilbereichs-Rechensystem ist zuständig für einen bestimmten Teilbereich und es verknüpft, fusioniert und verdichtet die Informationen aller Sensoreinheiten, die denselben Teilbereich überwachen bzw. dort vorhanden sind, und nutzt sie zur Erstellung bzw. Aktualisierung seiner detaillierten, lokalen Umgebungskarte des Teilbereichs.
  • Anhand der letztlich gebildeten Umgebungskarte des gesamten Bereichs 200, also einer finalen Gesamtkarte, ist das übergeordnete Rechensystem 130 auch in der Lage, nicht überwachte Bereiche oder Lücken im Überwachungssystem zu identifizieren und diese z.B. einem Bediener anzuzeigen.
  • Das übergeordnete Rechensystem 130 übernimmt damit insbesondere die Gesamtkoordination (Priorisierung, Bahnplanung, etc.) für alle in das Netzwerk eingebundenen, automatisierten, mobilen Objekte, d.h. es werden Bewegungsvorgaben V für diese Objekte gemacht, wie in 2 angedeutet. Nichtvernetzte mobile Objekte (d.h. insbesondere Personen) werden als bewegliche (oder dynamische) Störgrößen bzw. Hindernisse berücksichtigt, um Gefahrensituationen wie z.B. Kollisionen zu vermeiden.
  • Bei den Objekten im jeweiligen Bereich wird insbesondere zwischen folgenden Kategorien unterschieden:
    • - Stationäre Objekte (z.B. Maschinen, Anlagen, Teile der Hallenstruktur, Paletten und dergleichen), wobei hierbei wiederum zwischen kommunikationsfähigen stationären Objekten (z.B. bestimmte Maschinen und Anlagen, die von mobilen Objekten angefahren werden sollen), die selbst über eine Kommunikationsverbindung zum Netzwerk, also insbesondere zum jeweiligen Rechensystem des Teilbereichs, verfügen und somit selbst Netzwerkteilnehmer sind, sowie nicht kommunikationsfähigen, stationäre Objekten (z.B. Teile der Hallenstruktur, Hindernisse und dergleichen), die über keine Netzwerkverbindung verfügen.
    • - Bewegliche bzw. mobile Objekte, und zwar hierbei einerseits kommunikationsfähige bewegliche Objekte (z.B. autonome Transportsysteme, Werkstückträgersysteme mit RFID-Tags und dergleichen), die selbst über eine Kommunikationsverbindung zum Netzwerk, also insbesondere zum jeweiligen Rechensystem des Teilbereichs, verfügen und somit selbst Netzwerkteilnehmer sind, sowie andererseits nicht kommunikationsfähige bewegliche Objekte (z.B. eine Person), die über keine Netzwerkverbindung verfügen. Diese können jedoch insbesondere identifiziert, beobachtet und als Störfaktoren bzw. Hindernisse im System berücksichtigt werden.
  • Mit Hilfe der lückenlosen 3D-Umgebungsarte des Bereichs sowie mit Hilfe der Positions- und Bewegungsinformationen der Objekte lassen sich beispielsweise folgende Aufgaben umsetzen:
    • - Eine globale Routenplanung (mit Verkehrsregeln und Priorisierung), insbesondere unter Berücksichtigung zahlreicher autonomer, nicht-menschlicher Objekte (mobile Roboter) im Sinne von Verkehrsteilnehmern, hierbei insbesondere mit Anwendung von vorgegebenen Verkehrsregeln (z.B. Vorfahrtsregeln), Priorisierung der Verkehrsteilnehmer, Erkennung gangbarer, kollisionsfreier Pfade (z.B. unter Berücksichtigung der Größe des Verkehrsteilnehmers inkl. seiner Ladung), und Suche nach der optimalen Route unter Berücksichtigung der jeweiligen Situation.
    • - Eine Optimierung des Verkehrsflusses im Bereich, also insbesondere in der Fertigungshalle mit Optimierung der Routen der kommunikationsfähigen mobilen Objekte zur Minimierung der eingesetzten Ressourcen (z.B. Minimierung der zurückgelegten Wegstrecken oder der Fahrzeiten).
    • - Eine Vorausberechnung potentieller Kollisionen aus den Bewegungsinformationen der Objekte mit aktiver Kollisionsvermeidung z.B. durch Umplanung der Route oder durch gezieltes Anhalten und aktives Warten einzelner Objekte, und Warnung der anderen Objekte, damit diese lokal ihre Bahn bzw. Route ändern oder anhalten.
    • - Nutzung der Orts- und Bewegungsdaten der in dem Bereich befindlichen Objekte zur Unterstützung weiterer Sicherheitsfunktionen von Maschinen und Anlagen (z.B. Erkennung von Objekten und insbesondere von Personen, die z.B. den Sicherheitsbereich eines Roboters betreten). Dabei kann mit Hilfe des übergeordneten Rechensystems die zu überwachende Anlage vorab gewarnt werden, dass in Kürze ein Objekt in seinen Überwachungsbereich eindringen wird. Mit Hilfe der Informationen des übergeordneten Rechensystems kann überprüft werden, ob ein Objekt den Überwachungsbereich einer Anlage in einer bestimmten Richtung wieder verlassen hat, woraus z.B. ein Befehl zum Wiederanfahren der Anlage aus dem sicheren Zustand heraus ableitbar ist. Das übergeordnete Rechensystem kann darin unterstützen, ein in den Überwachungsbereich einer Anlage eindringendes Objekt zu identifizieren.
    • - Eine Nutzung von Redundanzen im Überwachungsnetzwerk bei Ausfall einzelner Sensoreinheiten im übergeordneten Netzwerk oder bei den mobilen Objekten.
  • Die Gesamtkoordination aller mobilen Objekte erfolgt auf der obersten Netzwerkebene, was insbesondere eine Priorisierung und eine Gesamtroutenplanung umfasst. Das übergeordnete Rechensystem kennt die Position und den Bewegungszustand aller Objekte (inkl. der Hindernisse) und alle geplanten Wege bzw. Routen der automatisierten mobilen Objekte in dem Bereich.
  • Durch Rückführung der Echtzeitdaten kann das übergeordnete Rechensystem die 3D-Umgebungskarte und die Gesamtroutenplanung laufend aktualisieren und die Bewegungsvorgaben bzw. eine Bewegungsplanung der automatisierten mobilen Objekte situationsgerecht ändern bzw. anpassen. In 2 ist dies durch die Bewegungsvorgaben V1 bzw. V2 angedeutet, die für die einzelnen Teilbereiche bzw. für die entsprechenden Rechensysteme vorgesehen sind. Dadurch können z.B. der Verkehrsfluss optimiert und absehbare Behinderungen der Objekte untereinander vermieden werden. Die Gesamtroutenplanung wird anschließend bis auf die unterste Ebene der einzelnen Teilbereiche heruntergebrochen und an die jeweils zuständigen Teilbereichs-Rechensysteme verteilt.
  • Diese unterste Ebene übernimmt nun zusätzlich auch eine Sicherheitsfunktion in Form einer Kollisionsüberwachung und -vermeidung. Da auch die Sensordaten auf der untersten Ebene ausgewertet werden, stehen hierfür alle benötigten Informationen in maximaler Auflösung und Bandbreite zur Verfügung. Die Teilbereichs-Rechensysteme auf den untersten Ebenen können damit nun die automatisierten mobilen Objekte in ihrem Teilbereich gezielt ansprechen und deren Bahn und Geschwindigkeit verändern bzw. situationsgerecht beeinflussen. So z.B. kann ein Objekt mit geringer Priorität angehalten werden, um ein anderes Objekt mit höherer Priorität passieren zu lassen. Auch eine Reduktion der Geschwindigkeit oder eine Änderung der Bahn bzw. Route in Form eines Ausweichmanövers oder einer Hindernisumfahrung sind mögliche Reaktionen auf ein erkanntes Kollisionsrisiko.
  • Den automatisierten, mobilen Objekten bleibt eine Feinnavigation inkl. Notbrems- oder Notausweichfunktionen erhalten, die z.B. ansprechen, wenn das übergeordnete Rechensystem z.B. versagt oder nicht mehr ausreicht, um das mobile Objekt zu navigieren. In solchen Situationen kommt das lokale Navigationssystem auf den mobilen Objekten zum Tragen. Dazu sind auf den mobilen Objekten bevorzugt selbst ebenfalls Sensoren bzw. Sensoreinheiten und Sicherheitsfunktionen vorgesehen. Diese haben zweckmäßigerweise jedoch nur eine kurze Reichweite und dienen damit bevorzugt einer Backup-Lösung bzw. einer Notbrems- oder Notausweichfunktion oder zur Feinnavigation im Nahbereich (z.B. Aufspüren der korrekten Andockposition an die Station einer Linie).
  • Im Gegensatz zu den globalen Sicherheitsfunktionen, die über das Netzwerk auf die Bewegungsinformationen aller beweglichen Objekte in ihrem jeweiligen Teilbereich, in den benachbarten Teilbereichen oder auch im Gesamtsystem zurückgreifen können und im Wesentlichen von den Rechensystemen auf der untersten Ebene, d.h. in den Teilbereichen, gesteuert werden, können die lokalen Sicherheitsfunktionen der automatisierten, mobilen Objekte, die nur lokal auf den Recheneinheiten der automatisierten, mobilen Objekte laufen, nur einen kleinen Teilbereich um das automatisierte, mobile Objekt herum überwachen. Sofern sie keine weiteren Informationen vom übergeordneten Netzwerk erhalten, können sie sinnvollerweise nur bei geringer, sicherer Geschwindigkeit betrieben werden. Durch Nutzung der Bewegungsinformationen aller beweglichen Objekte in den jeweiligen Teilbereichen oder im übergeordneten System dürfen sich die automatisierten, mobilen Objekte unter Nutzung der globalen Sicherheitsfunktionen mit viel höheren Geschwindigkeiten bewegen, da somit mögliche Kollisionen schon viel früher erkannt und vermieden werden können.
  • Eine Planung der globalen Route umfasst nicht nur die Bahnkoordinaten, sondern auch die entlang der Bahn zu durchfahrenden Teilbereiche und die dafür jeweils zuständigen Teilbereichs-Rechensysteme bzw. deren Verknüpfung miteinander. Wenn das übergeordnete Rechensystem eine Route geplant hat, verteilt es diese Planung (inkl. der Priorisierung und ggf. einer Zeitkomponente) nicht nur an die betreffenden mobilen Objekte, sondern auch an die Teilbereichs-Rechensysteme entlang der zu durchfahrenden Route. Damit können die lokalen Teilbereiche die verschiedenen beweglichen Objekte, die in ihren Einflussbereich kommen werden, zeitlich kategorisieren (Ranking) und damit die Kollisionsüberwachung und die lokale Beeinflussung von Bewegungen optimieren.
  • Bei nicht vernetzten Objekten kennt das übergeordnete Rechensystem auf übergeordneter Ebene maximal eine Position und eine Bewegungsrichtung, insbesondere einen momentanen Geschwindigkeitsvektor (auf lokaler Ebene kann auch eine 3D-Pose verfügbar sein). Diese Informationen können mit Hilfe der Daten der Sensoreinheiten aus den Teilbereichen der unteren Ebenen laufend aktualisiert werden. Mit diesen Angaben kann für eine kurze Zeitspanne ein temporärer Pfad vorhergesagt werden. Mit diesen Informationen können Kollisionssituationen insbesondere gar nicht erst entstehen, indem die automatisierten, mobilen Objekte (z.B. ein Transportassistent) angewiesen werden, anzuhalten, langsamer zu fahren, auszuweichen oder einen ganz anderen Weg zu nehmen.
  • Eine weitere Möglichkeit, nicht vernetzte Objekte vor möglichen Gefahren zu schützen, besteht beispielsweise auch darin, diese akustisch oder optisch vor der drohenden oder herannahenden Gefahr zu warnen.

Claims (11)

  1. Verfahren zum Koordinieren und Überwachen von Objekten (210, 211, 212) in einem vorgegebenen räumlichen Bereich (200), der mehrere Teilbereiche (201, 202) umfasst, denen jeweils ein Teilbereichs-Rechensystem (110) zugeordnet ist, wobei mittels des jeweiligen Teilbereichs-Rechensystems (110) unter Verwendung von Sensoreinheiten (250, 251) Positions- und Bewegungsinformationen (I1, I2) von Objekten (210, 211, 212) in dem jeweiligen Teilbereich (201, 202) ermittelt werden, wobei mittels des jeweiligen Teilbereichs-Rechensystems (110) unter Verwendung einer jeweiligen Umgebungskarte (K1, K2) des jeweiligen Teilbereichs und den Positions- und Bewegungsinformationen (I1, I2) eine jeweilige aktuelle Umgebungskarte (K'1, K'2) des jeweiligen Teilbereichs erstellt wird, wobei die jeweiligen aktuellen Umgebungskarten (K'1, K'2) an ein gemeinsames, übergeordnetes Rechensystem (130) übermittelt werden, wobei mittels des übergeordneten Rechensystems (130) eine aktuelle Umgebungskarte (K) des vorgegebenen räumlichen Bereichs (200) erstellt und basierend darauf Bewegungen von automatisierten, mobilen Objekten (211) in dem räumlichen Bereich unter Ermittlung von Bewegungsvorgaben (V, V1, V2) koordiniert werden, und wobei die Bewegungsvorgaben (V, V1, V2) an die Teilbereichs-Rechensysteme (110) und darüber an die automatisierten, mobilen Objekte (211) übermittelt werden.
  2. Verfahren nach Anspruch 1, wobei mittels des jeweiligen Teilbereichs-Rechensystems (110) unter Verwendung der Sensoreinheiten (250, 251) Positionsinformationen von statischen Objekten (210) und Positions- und Bewegungsinformationen von mobilen Objekten (211, 212) in dem jeweiligen Teilbereich (201, 202) ermittelt werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei statische und/oder nicht automatisierte, mobile Objekte (212) bei der Ermittlung der Bewegungsvorgaben für die automatisierten, mobilen Objekte (211) als Hindernisse oder als dynamische Störgrößen berücksichtigt werden.
  4. Verfahren nach einem der vorstehenden Ansprüche, wobei mittels der Teilbereichs-Rechensysteme (110) die automatisierten, mobilen Objekte (211) hinsichtlich ihrer Bewegung überwacht werden.
  5. Verfahren nach einem der vorstehenden Ansprüche, wobei die Sensoreinheiten (250, 251) ausgewählt sind aus: Kameras, insbesondere Videokameras und Stereokameras, Ultraschallsensoren, Mikrofone, Annäherungssensoren, RADAR-Einheiten, Time-of-Flight-Kameras, LIDAR-Einheiten, Funkmodule, insbesondere WLAN-Einheiten und Bluetooth-Einheiten, Inertialsensoren und Abstandssensoren.
  6. Verfahren nach einem der vorstehenden Ansprüche, wobei die jeweiligen aktuellen Umgebungskarten (K'1, K'2), die an das gemeinsame, übergeordnete Rechensystem (130) übermittelt werden, abstrahiert werden.
  7. Verfahren nach einem der vorstehenden Ansprüche, wobei eine oder mehrere Ebenen mit zwischengeordneten Rechensystemen (120) vorgesehen sind, mittels welcher die aktuellen Umgebungskarten (K'1, K'2) auf dem Weg von den Teilbereichs-Rechensystemen (110) der Teilbereiche (201, 202) zum übergeordneten Rechensystem (130) zusammengefasst und insbesondere abstrahiert werden.
  8. Verfahren nach einem der vorstehenden Ansprüche, wobei aus einer mittels des übergeordneten Rechensystems (130) erstellten aktuellen Umgebungskarte (K) des vorgegebenen räumlichen Bereichs (200) eine aktuelle Umgebungskarte eines Teilbereichs erstellt und an das entsprechende und/oder ein anderes Teilbereichs-Rechensystem (110) übermittelt wird.
  9. System (100) mit mehreren Rechensystemen (110, 120, 130), das dazu eingerichtet ist, ein Verfahren nach einem der vorstehenden Ansprüche durchzuführen.
  10. Computerprogramm, das ein System (100) dazu veranlasst, ein Verfahren nach einem der Ansprüche 1 bis 8 durchzuführen, wenn es auf dem System (100) ausgeführt wird.
  11. Maschinenlesbares Speichermedium mit einem darauf gespeicherten Computerprogramm nach Anspruch 10.
DE102018215560.7A 2018-08-28 2018-09-12 Verfahren zum Koordinieren und Überwachen von Objekten Pending DE102018215560A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/549,591 US11287799B2 (en) 2018-08-28 2019-08-23 Method for coordinating and monitoring objects
CN201910794879.4A CN110867095B (zh) 2018-08-28 2019-08-27 用于协调和监控对象的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018214492 2018-08-28
DE102018214492.3 2018-08-28

Publications (1)

Publication Number Publication Date
DE102018215560A1 true DE102018215560A1 (de) 2020-03-05

Family

ID=69526812

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018215560.7A Pending DE102018215560A1 (de) 2018-08-28 2018-09-12 Verfahren zum Koordinieren und Überwachen von Objekten

Country Status (3)

Country Link
US (1) US11287799B2 (de)
CN (1) CN110867095B (de)
DE (1) DE102018215560A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022073052A1 (de) 2020-10-07 2022-04-14 Tgw Logistics Group Gmbh Verfahren zum rechnergestützten verarbeiten einer zustandsänderung eines warenträgers in einem lager- und kommissioniersystem sowie lager- und kommissioniersystem

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11763111B2 (en) * 2018-05-04 2023-09-19 Rowan Companies, Inc. System and method for locating personnel at muster station on offshore unit
JP2023505927A (ja) 2019-10-18 2023-02-14 オフワールド,インコーポレイテッド 産業用ロボティクスのためのシステムおよび方法
US20210394845A1 (en) * 2020-06-23 2021-12-23 Ford Global Technologies, Llc Facility sensory system for monitoring, guiding, and protecting flexible modular platforms moving through an assembly line
US11720095B2 (en) * 2020-06-23 2023-08-08 Ford Global Technologies, Llc Remote controlled flexible modular platform system
US11803181B2 (en) * 2020-06-23 2023-10-31 Ford Global Technologies, Llc Flexible modular platform plant navigation system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2508956A1 (de) * 2011-04-06 2012-10-10 Kollmorgen Särö AB System und Verfahren zum Verhindern von Kollisionen
DE102015205088A1 (de) * 2015-03-20 2016-09-22 Kuka Roboter Gmbh Online-Kalibrierungsprüfung während des Betreibens eines autonomen Fahrzeugs
DE102016211129A1 (de) * 2016-06-22 2017-12-28 Kuka Roboter Gmbh Verfahren zum Überprüfen einer Kollision zwischen zwei fahrerlosen Transportfahrzeugen, fahrerloses Transportfahrzeug und System mit mehreren fahrerlosen Transportfahrzeugen
US20180136644A1 (en) * 2015-11-04 2018-05-17 Zoox, Inc. Machine learning systems and techniques to optimize teleoperation and/or planner decisions

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553308B1 (en) * 1999-04-29 2003-04-22 Donnelly Corporation Vehicle-based navigation system with smart map filtering, portable unit home-base registration and multiple navigation system preferential use
US8594923B2 (en) * 2011-06-14 2013-11-26 Crown Equipment Limited Method and apparatus for sharing map data associated with automated industrial vehicles
US8589012B2 (en) * 2011-06-14 2013-11-19 Crown Equipment Limited Method and apparatus for facilitating map data processing for industrial vehicle navigation
DE102012212740A1 (de) * 2012-07-19 2014-05-22 Continental Automotive Gmbh System und Verfahren zum Aktualisieren einer digitalen Karte eines Fahrerassistenzsystems
US9452530B2 (en) * 2014-09-12 2016-09-27 Toyota Jidosha Kabushiki Kaisha Robot motion replanning based on user motion
US10022867B2 (en) * 2014-11-11 2018-07-17 X Development Llc Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action
US20170021497A1 (en) * 2015-07-24 2017-01-26 Brandon Tseng Collaborative human-robot swarm
WO2017130418A1 (ja) * 2016-01-29 2017-08-03 株式会社小松製作所 作業機械の管理システム及び作業機械
CN107121142B (zh) * 2016-12-30 2019-03-19 深圳市杉川机器人有限公司 移动机器人的拓扑地图创建方法及导航方法
SG10201708171QA (en) * 2017-10-04 2019-05-30 Arche Information Inc A comprehensive multi-agent robotics management system
US11533593B2 (en) * 2018-05-01 2022-12-20 New York University System method and computer-accessible medium for blockchain-based distributed ledger for analyzing and tracking environmental targets
CN109141446B (zh) * 2018-07-04 2021-11-12 阿波罗智能技术(北京)有限公司 用于获得地图的方法、装置、设备和计算机可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2508956A1 (de) * 2011-04-06 2012-10-10 Kollmorgen Särö AB System und Verfahren zum Verhindern von Kollisionen
DE102015205088A1 (de) * 2015-03-20 2016-09-22 Kuka Roboter Gmbh Online-Kalibrierungsprüfung während des Betreibens eines autonomen Fahrzeugs
US20180136644A1 (en) * 2015-11-04 2018-05-17 Zoox, Inc. Machine learning systems and techniques to optimize teleoperation and/or planner decisions
DE102016211129A1 (de) * 2016-06-22 2017-12-28 Kuka Roboter Gmbh Verfahren zum Überprüfen einer Kollision zwischen zwei fahrerlosen Transportfahrzeugen, fahrerloses Transportfahrzeug und System mit mehreren fahrerlosen Transportfahrzeugen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022073052A1 (de) 2020-10-07 2022-04-14 Tgw Logistics Group Gmbh Verfahren zum rechnergestützten verarbeiten einer zustandsänderung eines warenträgers in einem lager- und kommissioniersystem sowie lager- und kommissioniersystem

Also Published As

Publication number Publication date
CN110867095A (zh) 2020-03-06
CN110867095B (zh) 2023-07-07
US11287799B2 (en) 2022-03-29
US20200073363A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
DE102018215560A1 (de) Verfahren zum Koordinieren und Überwachen von Objekten
EP2722687B1 (de) Sicherheitsvorrichtung für ein Fahrzeug
DE4013168C2 (de) Fahrsteuerverfahren und Fahrsteuereinrichtung für ein Mobilrobotersystem
DE3686301T2 (de) Eigensichere bremse fuer ein mehrraedriges fahrzeug mit motorgesteuerter lenkung.
EP3552921B1 (de) Autonome geschwindigkeitsplanung eines auf einen vorbestimmten pfad beschränkten beweglichen akteurs
WO2018145951A1 (de) Verfahren zum koordinieren eines verkehrs mehrerer kraftfahrzeuge innerhalb eines vorbestimmten infrastrukturbereichs sowie servervorrichtung, kraftfahrzeug und system
DE102015217891A1 (de) Bestimmen einer Soll-Trajektorie für ein Fahrzeug
WO2018046252A1 (de) System und verfahren zum operieren von nutzfahrzeugen
DE102015205133A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Bewegungsplanung für ein zumindest teilweise automatisiertes Fahren eines Fahrzeugs
DE102020128261A1 (de) Zustandsmaschine für dynamische Streckenplanung
EP3982349B1 (de) Fluggerät sowie verfahren und rechnergestütztes system zur steuerung eines fluggeräts
DE102017213601A1 (de) Verfahren zum Erstellen einer Objektkarte für eine Fabrikumgebung
DE102019113257A1 (de) Echtzeitgeformter roboterschwarm für die materialbeförderung
DE102020100749A1 (de) Ermittlung von wegen für fahrzeuge
DE112019003262T5 (de) Elektronische Steuereinheit
DE112022003223T5 (de) Komplementäres steuersystem für ein autonomes fahrzeug
DE102015201569A1 (de) Fahrzeugsteuervorrichtung und verfahren
DE112017003942T5 (de) Autonomes Fahrsystem auf Basis einer elektronischen Karte und eines digitalen Kompasses
DE102020135153A1 (de) Logistikfläche und Verfahren zum Betreiben einer solchen
DE102017218932B4 (de) Verfahren zur Bewertung einer Trajektorie eines Fortbewegungsmittels
DE102019208892A1 (de) Verfahren zum Betrieb eines fahrerlosen Transportsystems
DE102018217896A1 (de) Parkbereichsmanagementsystem und Parkbereichsmanagementverfahren für zumindest zwei autonome Fahrzeuge
DE102019123783A1 (de) Verfahren zum Steuern eines Bewegungsverhaltens eines sich autonom bewegenden Roboters
WO2012136555A1 (de) Vorrichtung zur lokalisierung und navigation von autonomen fahrzeugen und verfahren zu deren betrieb
EP3364209A1 (de) Verfahren und system zur positionsbestimmung von mindestens einem flurförderzeug

Legal Events

Date Code Title Description
R163 Identified publications notified