WO2020182391A1 - Verfahren, vorrichtung und system zur navigation autonomer fahrzeuge - Google Patents

Verfahren, vorrichtung und system zur navigation autonomer fahrzeuge Download PDF

Info

Publication number
WO2020182391A1
WO2020182391A1 PCT/EP2020/053512 EP2020053512W WO2020182391A1 WO 2020182391 A1 WO2020182391 A1 WO 2020182391A1 EP 2020053512 W EP2020053512 W EP 2020053512W WO 2020182391 A1 WO2020182391 A1 WO 2020182391A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
autonomous vehicle
sensor
object information
determining
Prior art date
Application number
PCT/EP2020/053512
Other languages
English (en)
French (fr)
Inventor
Marc Abele
Mark Mohr
Original Assignee
Zf Friedrichshafen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zf Friedrichshafen Ag filed Critical Zf Friedrichshafen Ag
Priority to US17/438,472 priority Critical patent/US20220155076A1/en
Priority to CN202080018605.7A priority patent/CN113544465A/zh
Priority to EP20705648.2A priority patent/EP3938734A1/de
Publication of WO2020182391A1 publication Critical patent/WO2020182391A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/0755Position control; Position detectors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Definitions

  • the present invention relates to a method for navigating autonomous vehicles using object information from a management system, as well as an associated device and an associated method.
  • the positioning of the vehicle must be precisely determined during work, such as the transport of goods, for example the pick-up of a container in a container port, in order, for example, to pick up the object safe to perform.
  • the present invention therefore relates to a method, a device and a system which provide a robust and reliable position determination, relationship Wise localization of a vehicle is allowed, even if a global navigation satellite system does not allow this in its current state.
  • an autonomous vehicle In the case of an autonomous vehicle, this can in particular be an autonomous self-driving work machine. It can also be an autonomous floor conveyor vehicle.
  • the autonomous industrial truck which can also be referred to as an autonomous industrial truck, can be any manned or unmanned autonomous vehicle that is designed to transport goods and / or people and can be used in a logistics or industrial environment.
  • Such an industrial truck can for example be a container transport vehicle for transporting containers in a container port, such as a straddle carrier, a container bridge, a reach stacker, a mobile or a container mover.
  • a container transport vehicle for transporting containers in a container port, such as a straddle carrier, a container bridge, a reach stacker, a mobile or a container mover.
  • a navigation of the autonomous vehicle can include a determination of a current position as a location determination, a determination of a route to the destination and / or its autonomous driving by autonomous vehicles.
  • the navigation can also include controlling and / or regulating the autonomous vehicle or the driving dynamics of the vehicle in order to steer or control the autonomous vehicle to a destination.
  • the method initially includes receiving sensor information from a sensor system attached to the vehicle.
  • Such a reception can on the one hand be the reception of a signal, for example in the form of data packets. However, this can also involve reading out such information from a memory.
  • the transmission of information from one process to another in software can also be viewed as receiving.
  • the sensor system can be designed as a single sensor or have multiple sensors.
  • the sensors here can be, for example, cameras, distance meters, LIDAR systems, laser-based sensors, radar-based sensors, ultrasound-based sensors or the like.
  • the sensor information can also include image information and similar information which is output by the sensors mentioned above.
  • the sensor information received can generally be measured values or outputs from sensors of a vehicle.
  • the method then includes receiving object information from a management system that stores information about objects in a work area of the autonomous vehicle.
  • Such object information is generally to be understood as information which represents properties of the object. This can be, for example, the dimensions of an object, its position / localization, its surface structure, its color or other properties that characterize the object.
  • An administration system can be, for example, a storage system, an administration system or an inventory system which stores such information about objects in a work area of a vehicle, such as a port area, a warehouse or the like.
  • Such object information can be received in a processed or unprocessed manner.
  • Receiving object information here also includes intermediate processing on the part of the management system or on the part of the autonomously driving vehicle.
  • a work area is generally to be understood as an area in which the autonomous vehicle carries out its activities, such as conveying or processing objects.
  • the position of the autonomous vehicle is determined based on the sensor information and the object information.
  • a determination can be, for example, a comparison of the sensor information received from the sensor system with information obtained from the object information.
  • a comparison of an actual value, which is obtained from the sensor information, with a target value, which is obtained from the object information, can be used for the determination.
  • the object information obtained from the management system (for example from a storage system) in combination with the Sensor information can be used to determine which object in the work area is next to which the vehicle is at what distance. The absolute position of the vehicle can then be deduced from this relative information in relation to the objects.
  • the determination can thus also include the determination of a relative position of the autonomous vehicle based on the sensor information and the object information with reference to one or more objects in the working area of the vehicle and the subsequent step of transforming this relative position into an absolute position.
  • the method can furthermore also include the step of switching from determining the position of the autonomous vehicle by means of a global navigation satellite system to determining the position of the autonomous vehicle based on the sensor information and the object information, as described above.
  • a switchover can take place here, for example, as a function of the position determination accuracy by means of the global navigation satellite system.
  • switching can take place when the position determination accuracy by means of the global navigation satellite system falls below a threshold value.
  • the number of satellites from which a signal is received can be used as parameters for determining the position determination accuracy of the global navigation satellite system, and the elevation or a dilution-of-precision (DOP) value can also serve as a characteristic number.
  • DOP dilution-of-precision
  • the global satellite navigation system can be used to determine position.
  • an activity of work is carried out on an object, such as picking up / loading the object
  • the relative position determination by means of the object information can be used in order to enable the most precise possible positioning with reference to the object on which the Work is in progress.
  • the method can make use of external distance information.
  • external distance information is one Information that is measured by an external measuring device. This distance information measured by a measuring device located externally from the autonomous vehicle can in particular be recorded with the sensor system.
  • Such a measuring device can be, for example, a distance measuring device attached to an object which, for example, indicates a distance between the vehicle and the measuring device via a display.
  • This display can for example be captured with a camera of the vehicle's sensor system, i. read out, and then processed.
  • the method can also provide that an object information identifier is recorded by the sensor system of the vehicle.
  • an object identification identifier can be, for example, a barcode, a QR code or the like, which is attached to an object.
  • the sensor used in the sensor system can in particular be a camera.
  • object information associated with the object can then be queried from the management system. This information can then be used in the step of determining the position of the autonomous vehicle (relative to this object).
  • the positioning allows the positioning to be improved further, since specific information, such as, for example, the dimensions of an object, such as a container, can be queried for an object which is located in the vicinity of the vehicle.
  • a rough positioning of the vehicle can already be determined by which object identification codes of which objects are located in the detection range of the sensors.
  • the position of the vehicle can then be determined robustly. For example, based on the retrieved information on a dimension of the object and on the basis of camera data or data from a distance measuring system, it can be determined in which distance and in which alignment to the object the autonomously driving vehicle is.
  • the positioning in the working area of the machine can also be called up from the management system as object information, which enables the relative position of the vehicle to be converted to an absolute position.
  • environmental information such as map information in two-dimensional or three-dimensional form, can be derived from the object information in a management system.
  • information about the objects stored in the management system such as absolute position, dimension, position in a stack of objects, etc.
  • information about the surroundings or mapping can be derived. This can even take place in three-dimensional form, since the expansion of the objects in three-dimensional space can be calculated or derived from the information on the heights of objects and their arrangement on top of one another.
  • the result is a two-dimensional or a three-dimensional mapping as information about the surroundings, which results from the information stored in the management system.
  • This environmental information obtained in this way can be used as object information in the step of determining the position of the autonomous vehicle.
  • the environmental information can be calculated in the vehicle itself, but also in an external system, such as the administration system or a unit connected to it.
  • the method can have the step of determining environmental information from object information in the management system, this step being carried out in the external unit.
  • the method can have the step of calculating the information about the surroundings from the information received from the management system, this step being carried out in the vehicle and, in the determining step, the information about the surroundings being used as object information.
  • the present invention also relates to a device for navigating an autonomous vehicle which is set up to carry out the method.
  • the invention also relates to a device for navigating an autonomous vehicle with a sensor system, a sensor information receiving means and a position determining means.
  • the means are designed according to the method described above.
  • This system can also have respective means for carrying out the further method steps mentioned above.
  • a corresponding system for navigating an autonomous vehicle initially comprises a sensor system attached to a vehicle with at least one sensor.
  • a sensor system attached to a vehicle with at least one sensor.
  • a sensor information receiving means is then set up to receive this information from this sensor system.
  • a management system is also included in the system and stores object information on objects in a work area of the autonomous vehicle.
  • the system has an object information receiving means for receiving object information from the management system.
  • the system also has computing means which are set up to compute environmental information from the object information received by the object information receiving means, the object information including information about dimensions and positions of objects in a work area of the autonomous vehicle.
  • the system has a position-determining means which is designed to determine the position of the autonomous vehicle based on the sensor information and an environmental information output as object information by the calculation unit.
  • the system can also be designed such that the position determining means is set up to switch from determining the position of the autonomous vehicle by means of a global navigation satellite system to determining the position of the autonomous vehicle based on the sensor information and the object information depending on the one hand on the position determination accuracy and on the other hand on the activity performed by the autonomous vehicle.
  • a further receiving means for global navigation satellite systems can be provided, which receives and processes data from one or more global navigation satellite systems.
  • a means can also be designed as software, software module or the like and is not limited to the design as a physical unit.
  • FIG. 1 shows a flow chart with method steps of an exemplary embodiment of a method for navigating the autonomous vehicle.
  • FIG. 2 shows an exemplary situation during navigation.
  • FIG. 3 shows a situation in which an object identification identifier is detected.
  • FIG. 4 shows a situation in which information is acquired from an external measuring device.
  • FIG. 5 shows a schematic representation of an apparatus and a system according to one embodiment.
  • FIG. 1 method steps of the method for navigating an autonomous vehicle are shown in a sequence.
  • a first step S1 the vehicle initially navigates using a global satellite navigation system.
  • the vehicle drives, for example, over a free area in a container port.
  • step S2a the system checks in step S2a or in step S2b whether the position determination accuracy by means of the global navigation system falls below a threshold value (S2a) or whether the vehicle approaches a container to be picked up, so that the activity carried out by the autonomous vehicle changes (S2b), to an approach to an object to be picked up and, if one of the cases occurs, switches to in step S3 a mode in which the position is no longer determined by the global navigation satellite system, but by means of sensor information and object information.
  • S2a a threshold value
  • S2b the activity carried out by the autonomous vehicle changes
  • the system then receives sensor information from a sensor system of the vehicle in step S4.
  • step S5 information on objects in the vicinity of the vehicle is also received via an interface to an administration system, here a wireless transmission from a logistics system.
  • an administration system here a wireless transmission from a logistics system.
  • the autonomous vehicle receives information about the positions and dimensions of containers in its vicinity.
  • step S6 the autonomous vehicle can then determine where the vehicle is relative to the vehicle based on the information about the dimensions and the positions of the containers in the environment, as well as the environment information of the vehicle, which are detected by the sensors of the vehicle Objects.
  • an absolute position of the vehicle can then be calculated in the same step, so that the exact position of the vehicle can be determined with greater robustness and only with information from an existing storage system without the use of navigation satellites.
  • the autonomous vehicle 100 can detect the containers 201 and 202 by means of the sensors 11 1 a and 11 1 b. With the aid of object information about the dimensions of the container 202 and the absolute position of the container, the vehicle 100 can then determine its position both in a relative and in an absolute manner.
  • the detection of the object identification identifier 203 of a container 201 is shown as a further exemplary situation.
  • the vehicle 100 with the sensor 111 a approaches the container 201.
  • the OR code 203 is attached to this. This is recognized or recorded by the sensor 111a, which is designed here as a camera.
  • the vehicle 100 can then request information about the container 201, such as its dimensions, from the management system (not shown here). This information can then be used in the calculation described above to determine the position of the vehicle.
  • FIG. 4 the situation is also shown by way of example in which an external measuring device is used.
  • the vehicle 100 with the sensor 111a embodied here as a camera approaches the object 401, here a container bridge.
  • This container bridge has an external measuring device 402 which measures the distance 403 to the vehicle 100.
  • the measurement result is output on the display 404 of the measuring device 402.
  • the vehicle 100 records the measurement result of the external measuring device 402 by means of the camera 111 by recording the distance displayed on the display 404 of the measuring device 402 and processing it further by means of image processing. This distance determined in this way can then be used to determine the position, as described above.
  • FIG. 5 shows a device and an associated system for navigating a vehicle according to an exemplary embodiment.
  • the device 110 of the vehicle 100 here has a sensor system 111 with a plurality of sensors 111 a and 111 b, which record objects in the respective detection areas. The output of this sensor system is passed on to the sensor information receiving means 112. Furthermore, the device has an object information receiving means 113 which receives the object information from a management system 501 of the system.
  • the system also has a calculation means 114, which is arranged in the device 110 in the exemplary embodiment shown. As described above, this calculation means is set up to collect information on the surroundings from the object information sensor. capture means 113 to determine received object information. The output of the computing means 114 and the sensor information receiving means 112 is then fed to the position determining means 115, which can determine the position of the vehicle 100 based on this information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Structural Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Civil Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)

Abstract

Ein Verfahren zum Navigieren eines autonomen Fahrzeugs unter Verwendung von von einem Verwaltungssystem empfangener Objektinformation wird gezeigt. Ebenso wird eine zugehörige Vorrichtung und ein zugehöriges System offenbart. Das Verfahren zur Navigation eines autonomen Fahrzeugs umfasst hierbei die Schritte des Empfangs (S4) von Sensorinformation von einem am Fahrzeug angebrachten Sensorsystems, das Empfangen (S5) von Objektinformationen von einem Verwaltungssystem, welches Informationen zu Objekten in einem Arbeitsbereich des autonom en Fahrzeugs speichert und das Bestimmen ( S6) der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und der Objektinformation.

Description

Verfahren, Vorrichtung und System zur Navigation autonomer Fahrzeuge
Technisches Gebiet
Die vorliegende Erfindung betrifft ein Verfahren zur Navigation von autonomen Fahr zeugen unter Heranziehung von Objektinformation aus einem Verwaltungssystem, so wie eine zugehörige Vorrichtung und ein zugehöriges Verfahren.
Stand der Technik
Beim Betreiben von autonomen Fahrzeugen, insbesondere autonomer selbstfahrender Arbeitsmaschinen und autonomen Flurförderfahrzeugen, muss bei der Arbeit, wie der Beförderung von Gütern, wie beispielsweise der Aufnahme eines Containers in einem Containerhafen, eine genaue Bestimmung der Positionierung des Fahrzeugs erfolgen, um beispielsweise das Aufnehmen des Objekts sicher ausführen zu können.
Aufgrund der Einsatzgebiete der Fahrzeuge kommt es jedoch häufig zu einem Fall, in welchem eine Positionsbestimmung über ein globales Navigationssatellitensystem nicht mehr in einer Genauigkeit erfolgen kann, dass dies für den Einsatzzweck genügt. Dies kann zum Beispiel von einer Abschattung durch aufgestapelte Container herrühren.
Auch alternative Verfahren, wie die Odometrie erlauben es nicht, eine genügend robus te Positionsbestimmung zu implementieren.
Im Stand der Technik, vergleiche DE 10 2016 108 446 A1 , werden deshalb Transpon der in den Arbeitsbereichen der Fahrzeuge in den Boden integriert, welche dann zur Positionsbestimmung herangezogen werden können. Derartige Systeme sind jedoch aufwendig und teuer zu implementieren.
Darstellung der Erfindung
Die vorliegende Erfindung bezieht sich daher auf ein Verfahren, eine Vorrichtung und ein System, welches eine robuste und zuverlässige Positionsbestimmung, beziehungs- weise Lokalisierung, eines Fahrzeugs erlaubt, auch wenn ein globales Navigationssatel litensystem dies im aktuellen Zustand nicht ermöglicht.
Zunächst wird ein Verfahren zur Navigation eines autonomen Fahrzeugs offenbart.
Bei einem autonomen Fahrzeug kann es sich hierbei insbesondere um eine autonome selbstfahrende Arbeitsmaschine handeln. Auch kann es sich um ein autonomes Flurför derfahrzeug handeln. Das autonome Flurförderfahrzeug, welches auch als autonomes Flurfördergerät bezeichnet werden kann, kann jedes bemannte oder unbemannte auto nome Fahrzeug sein, welches zum Transportieren von Gütern und/oder Personen aus gebildet ist und in einem Umfeld der Logistik oder der Industrie einsetzbar ist.
Ein derartiges Flurförderfahrzeug kann hierbei beispielsweise ein Containerförderfahr zeug zum Transport von Containern in einem Containerhafen, wie ein Portalhubwagen, eine Containerbrücke, ein Reach-Stacker, ein Mobiler oder ein ContainerMover sein.
Eine Navigation des autonomen Fahrzeugs kann hierbei ein Feststellen einer aktuellen Position als eine Ortsbestimmung, eine Ermittlung einer Route zum Zielpunkt und/oder deren autonomes Befahren durch autonome Fahrzeuge aufweisen. Das Navigieren kann auch ein Steuern und/oder Regeln des autonomen Fahrzeugs oder der Fahrdy namik des Fahrzeugs aufweisen, um das autonome Fahrzeug zu einem Zielpunkt zu lenken oder zu steuern.
Das Verfahren umfasst zunächst das Empfangen von Sensorinformationen von einem am Fahrzeug angebrachten Sensorsystem.
Ein derartiges Empfangen kann hierbei einerseits das Empfangen eines Signals, bei spielsweise in Form Art von Datenpaketen, sein. Es kann sich hierbei aber auch um das Auslesen von derartigen Informationen aus einem Speicher handeln. Auch die Übertra gung von Information von einem Prozess zu einem anderen in einer Software kann hierbei als Empfangen angesehen werden. Das Sensorsystem kann als einzelner Sensor ausgebildet sein oder mehrere Sensoren aufweisen. Als Sensoren können hierbei beispielsweise Kameras, Distanzmesser, Ll- DAR-Systeme, laserbasierte Sensoren, radarbasierte Sensoren, ultraschallbasierte Sensoren oder Ähnliches sein. Entsprechend kann auch die Sensorinformation neben Distanzinformation auch Bildinformation und ähnliche Information, welche von den oben genannten Sensoren ausgegeben wird, umfassen. Die empfangene Sensorinformation kann allgemein Messwerte oder Ausgaben von Sensoren eines Fahrzeugs sein.
Das Verfahren umfasst sodann das Empfangen von Objektinformation von einem Ver waltungssystem, welches Informationen zu Objekten in einem Arbeitsbereich des auto nomen Fahrzeugs speichert.
Eine derartige Objektinformation ist im Allgemeinen als Information zu verstehen, wel che Eigenschaften des Objekts darstellt. Hierbei kann es sich zum Beispiel um die Ab messung eines Objekts, dessen Position/Lokalisierung, um dessen Oberflächenstruktur, dessen Farbe oder weitere Eigenschaften handeln, welche das Objekt kennzeichnen.
Ein Verwaltungssystem kann hierbei beispielsweise ein Lagersystem, ein Verwaltungs system oder ein Inventarsystem sein, welches derartige Informationen über Objekte in einem Arbeitsbereich eines Fahrzeugs, wie beispielsweise einem Hafengelände, einer Lagerhalle oder Ähnliches speichert.
Derartige Objektinformationen können in verarbeiteter oder unverarbeiteter weise emp fangen werden. Das Empfangen von Objektinformation umfasst hierbei somit auch eine Zwischenverarbeitung seitens des Verwaltungssystems oder auf Seiten des autonom fahrenden Fahrzeugs.
Als Arbeitsbereich ist hierbei im Allgemeinen ein Bereich zu verstehen, in welchem das autonome Fahrzeug seine Tätigkeiten, wie Fördern oder Bearbeiten von Objekten, aus führt.
Im weiteren Schritt des Verfahrens wird die Position des autonomen Fahrzeugs basie rend auf der Sensorinformation und der Objektinformation bestimmt. Eine derartige Bestimmung kann beispielsweise ein Vergleich von der von dem Sensor system empfangenen Sensorinformation mit aus der Objektinformation gewonnener Information sein. So kann ein Vergleich eines Ist-Werts, welcher aus der Sensorinfor mation gewonnen wird, mit einem Soll-Wert, welcher aus der Objektinformation gewon nen wird, zur Bestimmung herangezogen werden.
Anders ausgedrückt kann durch das Vergleichen eines Umfeldzustands, und somit der Sensorinformation, mit zu Objekten vorhandener Objektinformation bestimmt werden, wo sich das Fahrzeug im Verhältnis zu den Objekten und somit im Arbeitsbereich befin det.
Befindet sich das Fahrzeugs somit beispielsweise in einem Bereich in einem Container hafen, in welchem eine starke Abschattung durch hoch aufgestapelte Container vor handen ist, so kann mittels der Objektinformation, welche aus dem Verwaltungssystem (beispielsweise aus einem Lagersystem) gewonnen wird, in Kombination mit der Senso rinformation bestimmt werden, neben welchem Objekt im Arbeitsbereich sich das Fahr zeug in welchem Abstand befindet. Aus dieser relativen Information im Verhältnis zu den Objekten kann sodann auf die absolute Position des Fahrzeugs zurückgeschlossen werden.
Hierbei kann das Bestimmen somit auch das Bestimmen einer relativen Position des autonomen Fahrzeugs basierend auf der Sensorinformation und der Objektinformation mit Bezug auf ein oder mehrere Objekte im Arbeitsbereich des Fahrzeugs und den an schließenden Schritt des Transformierens dieser relativen Position in eine absolute Po sition umfassen.
Das Verfahren kann ferner auch den Schritt des Umschaltens von einem Bestimmen der Position des autonomen Fahrzeugs mittels eines globalen Navigationssatellitensys tems zu dem Bestimmen der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und der Objektinformation, wie oben beschrieben, umfassen. Ein derartiges Umschalten kann hierbei beispielsweise in Abhängigkeit der Positionsbe stimmungsgenauigkeit mittels des globalen Navigationssatellitensystems erfolgen.
Insbesondere kann ein Umschalten erfolgen, wenn die Positionsbestimmungsgenauig keit mittels des globalen Navigationssatellitensystems einen Schwellwert unterschreitet.
Entsprechend kann überprüft werden, ob die Genauigkeit der Bestimmung über das globale Satellitensystem einer Genauigkeit genügt, die für einen bestimmten Arbeitsauf trag notwendig ist. Ist dies nicht der Fall, so kann dann auf das Bestimmen mittels der Sensorinformation und der Objektinformation umgeschaltet werden.
Dies erlaubt es, bei einem Fahren über eine freie Fläche das Navigationssatellitensys tem einzustellen, jedoch wenn eine zu starke Abschattung erfolgt, eine relative Naviga tion mit der Objektinformation im Verhältnis zu Objekten im Arbeitsbereich durchzufüh ren.
Als Kenngrößen zur Bestimmung der Positionsbestimmungsgenauigkeit des globalen Navigationssatellitensystems können beispielsweise die Anzahl der Satelliten herange zogen werden, von welchen ein Signal empfangen wird, ebenso kann die Elevation oder ein Dilution-of-Precision-(DOP)-Wert als Kennzahl dienen.
Auch ist es möglich, ein derartiges Umschalten durchzuführen, wenn eine bestimmte Tätigkeit des Fahrzeugs ausgeführt wird. Führt das Fahrzeug beispielsweise eine Tätig keit eines Fahrens über eine freie Fläche aus, so kann das globale Satellitennavigati onssystem zur Positionsbestimmung eingesetzt werden. Wird jedoch beispielsweise eine Tätigkeit einer Arbeit an einem Objekt, wie beispielsweise das Aufnehmen/Laden des Objekts durchgeführt, so kann auf die relative Positionsbestimmung mittels der Ob jektinformation zurückgegriffen werden, um eine möglichst genaue Positionierung mit Bezug auf das Objekt zu ermöglichen, an welchem die Arbeit ausgeführt wird.
Das Verfahren kann ferner im Schritt des Bestimmens der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und der Objektinformation auf externe Abstandsinformation zurückgreifen. Eine derartige externe Abstandsinformation ist eine Information, welche von einer externen Messeinrichtung gemessen wird. Diese von ei ner extern vom autonomen Fahrzeug befindlichen Messeinrichtung gemessene Ab standsinformation kann hierbei insbesondere mit dem Sensorsystem erfasst werden.
Bei einer derartigen Messeinrichtung kann es sich zum Beispiel um eine an einem Ob jekt angebrachten Abstandsmesseinrichtung handeln, welche beispielsweise über eine Anzeige einen Abstand des Fahrzeugs zu der Messeinrichtung angibt.
Diese Anzeige kann beispielsweise mit einer Kamera des Sensorsystems des Fahr zeugs erfasst, d.h. ausgelesen, und dann verarbeitet werden.
Dies erlaubt die einfache Integration von autonomen Fahrzeugen in Betriebe, welche sowohl mit autonomen als auch nicht autonomen Fahrzeugen arbeiten, da dieselbe In formation zum Abstand zu einem Objekt, wie beispielsweise zu einer Ladeposition ei nes Containerkrans, sowohl vom autonomen Fahrzeug als auch vom Fahrer eines nicht autonomen Fahrzeugs für dessen Navigation herangezogen werden kann.
Um die Positionierung des Fahrzeugs im Raum weiter zu verbessern, kann das Verfah ren ferner vorsehen, dass eine Objektinformationskennung durch das Sensorsystem des Fahrzeugs aufgenommen wird. Eine derartige Objektidentifikationskennung kann beispielsweise ein Barcode, ein QR-Code oder Ähnliches sein, welcher an einem Ob jekt angebracht ist. Der eingesetzte Sensor des Sensorsystems kann hierbei insbeson dere eine Kamera sein. Mittels dieser aufgenommenen Objektidentifikationskennung kann sodann zu dem Objekt zugehörige Objektinformation aus dem Verwaltungssystem abgefragt werden. Diese Information kann sodann im Schritt des Bestimmens der Posi tion des autonomen Fahrzeugs (relativ zu diesem Objekt) verwendet werden.
Dies erlaubt es, die Positionierung weiter zu verbessern, da spezifische Information, wie beispielsweise eine Abmessung eines Objekts, wie eines Containers, für ein Objekt ab gefragt werden kann, welches sich in der Umgebung des Fahrzeugs befindet. Zudem kann eine grobe Positionierung des Fahrzeugs bereits dadurch bestimmt werden, wel che Objektidentifikationskennungen von welchen Objekten im Erfassungsbereich der Sensoren gelegen sind. Anhand der durch das Sensorsystem aufgenommenen Information und der Objektin formation zu dem Objekt, welches die Objektinformationskennung trägt, kann dann die Position des Fahrzeugs robust bestimmt werden. So kann beispielsweise anhand der abgerufenen Information zu einer Abmessung des Objekts und anhand von Kamerada ten oder Daten eines Abstandsmessungssystems bestimmt werden, in welchem Ab stand und in welcher Ausrichtung zu dem Objekt sich das autonom fahrende Fahrzeug befindet.
Zudem kann auch aus dem Verwaltungssystem als Objektinformation die Positionierung im Arbeitsbereich der Maschine abgerufen werden, was eine Umrechnung der relativen Position des Fahrzeugs zu einer absoluten Position ermöglicht.
Ferner kann in einem weiteren Schritt aus der Objektinformation in einem Verwaltungs system eine Umgebungsinformation, wie beispielsweise eine Karteninformation in zwei dimensionaler oder dreidimensionaler Form abgeleitet werden.
Anders ausgedrückt kann basierend auf der in dem Verwaltungssystem gespeicherten Information zu den Objekten, wie absolute Position, Dimension, Position in einem Sta pel von Objekten, etc., eine Umgebungsinformation beziehungsweise eine Kartierung abgeleitet werden. Diese kann sogar in dreidimensionaler Form erfolgen, da über die Information zu Höhen von Objekten und deren Anordnung übereinander die Ausdeh nung der Objekte im dreidimensionalen Raum berechnet beziehungsweise hergeleitet werden kann.
Ergebnis ist somit eine zweidimensionale oder eine dreidimensionale Kartierung als Umgebungsinformation, welche sich aus der im Verwaltungssystem gespeicherten In formation ergibt.
Diese so erhaltene Umgebungsinformation kann im Schritt des Bestimmens der Positi on des autonomen Fahrzeugs als Objektinformation herangezogen werden. Die Berechnung der Umgebungsinformation kann hierbei einerseits im Fahrzeug selbst, jedoch auch in einem externen System, wie zum Beispiel dem Verwaltungssystem oder einer hiermit verbundenen Einheit erfolgen.
Entsprechend kann einerseits das Verfahren den Schritt aufweisen, eine Umgebungsin formation aus Objektinformation in dem Verwaltungssystem zu bestimmen, wobei die ser Schritt in der externen Einheit ausgeführt wird.
Alternativ kann das Verfahren den Schritt aufweisen, die Umgebungsinformation aus der von dem Verwaltungssystem empfangenen Information zu berechnen, wobei dieser Schritt im Fahrzeug ausgeführt wird und im Schritt des Bestimmens die Umgebungsin formation als Objektinformation herangezogen wird.
Die vorliegende Erfindung betrifft zudem eine Vorrichtung zur Navigation eines autono men Fahrzeugs, welche eingerichtet ist, das Verfahren auszuführen.
Ferner betrifft die Erfindung auch eine Vorrichtung zur Navigation eines autonomen Fahrzeugs mit einem Sensorsystem, einem Sensorinformation-Empfangsmittel und ei nem Positionsbestimmungsmittel.
Die Mittel sind entsprechend dem oben beschriebenen Verfahren ausgebildet.
Dieses System kann ferner jeweilige Mittel zur Ausführung der weiteren oben genann ten Verfahrensschritte aufweisen.
Ein entsprechendes System zur Navigation eines autonomen Fahrzeugs umfasst zu nächst ein an einem Fahrzeug angebrachtes Sensorsystem mit mindestens einem Sen sor. Zur Definition der Sensoren wird auf obige Ausführungen zum Verfahren verwie sen.
Ein Sensorinformation-Empfangsmittel ist sodann eingerichtet, diese Information von diesem Sensorsystem zu empfangen. Ein Verwaltungssystem ist ferner im System umfasst und speichert Objektinformation zu Objekten in einem Arbeitsbereich des autonomen Fahrzeugs.
Ferner weist das System ein Objektinformation-Empfangsmittel zum Empfangen von Objektinformation von dem Verwaltungssystem auf.
Auch weist das System Berechnungsmittel auf, welche zum Berechnen einer Umge bungsinformation aus der durch das Objektinformation-Empfangsmittel empfangenen Objektinformation eingerichtet ist, wobei die Objektinformation Informationen über Ab messung und Positionen von Objekten in einem Arbeitsbereich des autonomen Fahr zeugs umfasst.
Zur Berechnung der Umgebungsinformation aus der Objektinformation wird auf die obi gen Ausführungen zum entsprechenden Verfahrensschritt verwiesen.
Ferner weist das System ein Positionsbestimmungsmittel auf, welches zum Bestimmen der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und einer als Objektinformation von der Berechnungseinheit ausgegebenen Umgebungsinforma tion ausgebildet ist.
Entsprechend der obigen Ausführungen zu dem Verfahren kann das System ferner derart ausgebildet sein, dass das Positionsbestimmungsmittel eingerichtet ist zum Um schalten von einem Bestimmen der Position des autonomen Fahrzeugs mittels eines globalen Navigationssatellitensystems zu dem Bestimmen der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und der Objektinformation in Abhän gigkeit einerseits der Positionsbestimmungsgenauigkeit und andererseits der durch das autonome Fahrzeug ausgeführten Tätigkeit.
Hierzu kann ein weiteres Empfangsmittel für globale Navigationssatellitensysteme vor gesehen sein, welches Daten von einem oder mehreren globalen Navigationssatelliten systemen empfängt und verarbeitet. Ein Mittel kann hierbei auch als Software, Softwaremodul oder Ähnliches ausgebildet sein und ist nicht auf die Ausbildung als physikalische Einheit beschränkt.
Kurze Beschreibung der Zeichnungen
Figur 1 zeigt ein Ablaufdiagramm mit Verfahrensschritten eines Ausführungsbei spiels eines Verfahrens zum Navigieren des autonomen Fahrzeugs.
Figur 2 zeigt eine beispielhafte Situation während einer Navigation.
Figur 3 zeigt eine Situation einer Erfassung einer Objektidentifikationskennung.
Figur 4 zeigt eine Situation einer Erfassung von Information einer externen Messein richtung.
Figur 5 zeigt eine schematische Darstellung einer Vorrichtung und eines Systems nach einer Ausführungsform.
Detaillierte Beschreibung der Ausführunqsformen
In Figur 1 sind Verfahrensschritte des Verfahrens zum Navigieren eines autonomen Fahrzeugs in einer Abfolge dargestellt.
In einem ersten Schritt S1 navigiert das Fahrzeug zunächst mittels eines globalen Sa tellitennavigationssystems.
Hierbei fährt das Fahrzeug beispielsweise über eine freie Fläche in einem Containerha fen.
Nähert sich das Fahrzeug einem Objekt, hier einem Container, an, so überprüft das System im Schritt S2a beziehungsweise im Schritt S2b, ob die Positionsbestimmungs genauigkeit mittels des globalen Navigationssystems einen Schwellwert unterschreitet (S2a) oder ob sich das Fahrzeug an einen aufzunehmenden Container annähert, so- dass sich die ausgeführte Tätigkeit des autonomen Fahrzeugs ändert (S2b), in eine An näherung an ein aufzunehmendes Objekt und schaltet, wenn einer der Fälle auftritt, in Schritt S3 in einen Modus, in welchem die Positionsbestimmung nicht mehr über das globale Navigationssatellitensystem, sondern mittels Sensorinformation und Objektin formation erfolgt.
Um diese Navigation auszuführen empfängt das System sodann im Schritt S4 Sensor informationen von einem Sensorsystem des Fahrzeugs.
In Schritt S5 werden ferner über eine Schnittstelle zu einem Verwaltungssystem, hier einer drahtlosen Übertragung von einem Logistiksystem, Informationen zu Objekten im Umfeld des Fahrzeugs empfangen.
So empfängt das autonome Fahrzeug Informationen über die Positionen und die Ab messungen von Containern in seinem Umfeld.
In Schritt S6 kann das autonome Fahrzeug dann basierend auf der Information über die Abmessungen und die Positionen der Container in dem Umfeld, sowie über die Umge bungsinformation des Fahrzeugs, welche von den Sensoren des Fahrzeugs erfasst werden, bestimmen, wo sich das Fahrzeug relativ zu den Objekten befindet.
Aus dieser relativen Information kann sodann im selben Schritt eine absolute Position des Fahrzeugs berechnet werden, sodass die genaue Position des Fahrzeugs auch ohne die Verwendung von Navigationssatelliten mit einer größeren Robustheit und le diglich mit Information aus einem bereits bestehenden Lagersystem bestimmt werden kann.
Wie in Figur 2 in einer beispielhaften Situation gezeigt, kann das autonome Fahrzeug 100 mittels der Sensoren 11 1 a und 11 1 b die Container 201 und 202 erfassen. Mithilfe von Objektinformation über die Abmessung der Container 202 und der absoluten Posi tion der Container kann das Fahrzeug 100 sodann dessen Position sowohl in relativer als auch in absoluter Weise bestimmen. In Figur 3 ist als weitere beispielhafte Situation die Erfassung der Objektidentifikations kennung 203 eines Containers 201 dargestellt. Das Fahrzeug 100 mit dem Sensor 111 a nähert sich dem Container 201 an. Hieran befestigt ist der OR-Code 203. Dieser wird vom Sensor 111 a, welcher hier als Kamera ausgebildet ist, erkannt beziehungsweise aufgenommen. Mittels dieser Information kann das Fahrzeug 100 sodann vom Verwal tungssystem (hier nicht dargestellt) Informationen zu dem Container 201 , wie dessen Abmessung, abfragen. Diese Informationen könne sodann in der oben beschriebenen Berechnung zur Positionsbestimmung des Fahrzeugs verwendet werden.
In Figur 4 ist beispielhaft ferner die Situation dargestellt, in welchem eine externe Mess einrichtung verwendet wird.
Das Fahrzeug 100 mit dem hier als Kamera ausgebildeten Sensor 111 a nähert sich an das Objekt 401 , hier eine Containerbrücke, an. Diese Containerbrücke weist eine exter ne Messeinrichtung 402 auf, welche die Distanz 403 zum Fahrzeug 100 misst. Das Messergebnis wird auf der Anzeige 404 der Messeinrichtung 402 ausgegeben. Mittels der Kamera 111 nimmt das Fahrzeug 100 das Messergebnis der externen Messeinrich tung 402 auf, indem die auf der Anzeige 404 der Messeinrichtung 402 angezeigte Ab stand erfasst und mittels Bildverarbeitung weiterverarbeitet wird. Diese so ermittelte Distanz kann sodann zur Positionsbestimmung, wie zuvor beschrieben, verwendet wer den.
Figur 5 zeigt eine Vorrichtung uns ein zugehöriges System zur Navigation eines Fahr zeugs nach einem Ausführungsbeispiel. Die Vorrichtung 110 des Fahrzeugs 100 weist hierbei ein Sensorsystem 111 mit mehreren Sensoren 111 a und 111 b auf, welche Ob jekte in jeweiligen Erfassungsbereichen aufnehmen. Die Ausgabe dieses Sensorsys tems wird an das Sensorinformation-Empfangsmittel 112 weitergegeben. Ferner weist die Vorrichtung ein Objektinformation-Empfangsmittel 113 auf, welches die Objektin formation von einem Verwaltungssystem 501 des Systems empfängt. Das System weist ferner ein Berechnungsmittel 114 auf, welches im gezeigten Ausführungsbeispiel in der Vorrichtung 110 angeordnet ist. Dieses Berechnungsmittel ist, wie oben beschrieben, dazu eingerichtet, Umgebungsinformation aus der mittels des Objektinformationsemp- fangsmittels 113 empfangenen Objektinformation zu bestimmen. Die Ausgabe des Be rechnungsmittels 114 und des Sensorinformation-Empfangsmittel 112 wird sodann dem Positionsbestimmungsmittel 115 zugeführt, welches basierend auf dieser Information die Position des Fahrzeugs 100 bestimmen kann.
Bezuqszeichen
S1 Navigation mittels globalem Navigationssatellitensystems
S2a Prüfen der Positionsbestimmungsgenauigkeit
S2b Prüfen der ausgeführten Tätigkeit
53 Umschalten der Positionsbestimmung
54 Empfangen von Sensorinformation
55 Empfangen von Objektinformation
56 Bestimmen der Position
100 autonomes Fahrzeug
110 Vorrichtung
111 Sensorsystem
111 a Sensor
111 b Sensor
112 Sensorinformation-Empfangsmittel
113 Objektinformation-Empfangsmittel
114 Berechnungsmittel
115 Positionsbestimmungsmittel
201 , 202 Container
203 Objektidentifikationskennung
401 Containerbrücke
402 externe Messeinrichtung
403 Distanz
404 Anzeige der Messeinrichtung
501 Verwaltungssystem

Claims

Patentansprüche
1 . Verfahren zur Navigation eines autonomen Fahrzeugs, die Schritte umfassend:
- Empfangen (S4) von Sensorinformation von einem am Fahrzeug angebrachten Sen sorsystem;
- Empfangen (S5) von Objektinformation von einem Verwaltungssystem, welches In formation zu Objekten in einem Arbeitsbereich des autonomen Fahrzeugs speichert;
- Bestimmen (S6) der Position des autonomen Fahrzeugs basierend auf der Sensorin formation und der Objektinformation.
2. Verfahren nach Anspruch 1 , ferner den Schritt umfassend:
- Umschalten (S3) von einem Bestimmen der Position des autonomen Fahrzeugs mit tels eines globalen Navigationssatellitensystems zu dem Bestimmen der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und der Objektinformation, wenn die Positionsbestimmungsgenauigkeit mittels des globalen Navigationssatelliten systems einen Schwellwert unterschreitet.
3. Verfahren nach einem der vorrangegangenen Ansprüche, ferner den Schritt umfas send:
- Umschalten (S3) von einem Bestimmen der Position des autonomen Fahrzeugs mit tels eines globalen Navigationssatellitensystems zu dem Bestimmen der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und der Objektinformation, in Abhängigkeit der von dem autonomen Fahrzeug ausgeführten Tätigkeit.
4. Verfahren nach einem der vorrangegangenen Ansprüche, wobei:
- das Bestimmen (S6) der Position des autonomen Fahrzeugs basierend auf der Senso rinformation und der Objektinformation ferner das Bestimmen der Position basierend auf einer mittels eines Sensors des Sensorsystems von einer externen Messeinrichtung empfangenen Abstandsinformation umfasst.
5. Verfahren nach einem der vorrangegangenen Ansprüche, ferner den Schritt umfas send:
- Aufnehmen, durch einen Sensor des Sensorsystems, einer Objektidentifikationsken nung, welche an einem Objekt in der Umgebung des Fahrzeugs angebracht ist, und - Abfragen von Objektinformation zu dem Objekt, an welchem die Objektidentifikations kennung angebracht ist, von dem Verwaltungssystem, wobei
- der Schritt des Bestimmens (S6) der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und der Objektinformation die zu dem Objekt, an welchem die Objektidentifikationskennung angebracht ist, abgefragte Objektinformation verwen det.
6. Verfahren nach einem der vorrangegangenen Ansprüche, ferner die Schritte umfas send:
- Berechnen einer Umgebungsinformation aus Objektinformation in dem Verwaltungs system, wobei die Objektinformation Information über Abmessungen und Positionen von Objekten umfasst; und
- Ausgeben der Umgebungsinformation als Objektinformation an das autonome Fahr zeug.
7. Verfahren nach einem der vorrangegangenen Ansprüche 1 bis 5, ferner die Schritte umfassend:
- Berechnen einer Umgebungsinformation aus der von dem Verwaltungssystem emp fangenen Objektinformation, wobei die Objektinformation Information über Abmessun gen und Positionen von Objekten umfasst, wobei
- im Schritt des Bestimmens (S6) der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und der Objektinformation die Umgebungsinformation als Objek tinformation verwendet wird.
8. Vorrichtung zur Navigation eines autonomen Fahrzeugs, umfassend:
- ein an einem Fahrzeug (100) angebrachtes Sensorsystem (1 11 ) mit mindestens ei nem Sensor (1 1 1 a, 1 11 b);
- ein Sensorinformation-Empfangsmittel (1 12) zum Empfangen von Sensorinformation von dem Sensorsystem (1 1 1 );
- ein Objektinformation-Empfangsmittel (1 13) zum Empfangen von Objektinformation von einem Verwaltungssystem (501 ), welches Information zu Objekten in einem Ar beitsbereich des autonomen Fahrzeugs (100) speichert; - ein Positionsbestimmungsmittel (115) zum Bestimmen der Position des autonomen Fahrzeugs (100) basierend auf der Sensorinformation und der Objektinformation.
9. System zur Navigation eines autonomen Fahrzeugs (100), umfassend:
- ein an dem Fahrzeug angebrachtes Sensorsystem (111 ) mit mindestens einem Sen- sor (111 a, 111 b);
- ein Sensorinformation-Empfangsmittel (112) zum Empfangen von Sensorinformation von dem Sensorsystem (111 );
- ein Verwaltungssystem (501 ), welches Objektinformation zu Objekten in einem Ar beitsbereich des autonomen Fahrzeugs speichert;
- ein Objektinformation-Empfangsmittel (113) zum Empfangen von Objektinformation von dem Verwaltungssystem (501 ), welches Information zu Objekten in einem Arbeits bereich des autonomen Fahrzeugs (100) speichert;
- ein Berechnungsmittel (114) zum Berechnen einer Umgebungsinformation aus der durch das Objektinformation-Empfangsmittel (113) empfangenen Objektinformation, wobei die Objektinformation Information über Abmessungen und Positionen von Objek ten in einem Arbeitsbereich des autonomen Fahrzeugs umfasst, und
- ein Positionsbestimmungsmittel (115) zum Bestimmen der Position des autonomen Fahrzeugs basierend auf der Sensorinformation und einer als Objektinformation von der Berechnungseinheit ausgegebenen Umgebungsinformation.
10. System zur Navigation eines autonomen Fahrzeugs (100) nach Anspruch 9, wobei das Positionsbestimmungsmittel (115) ferner eingerichtet ist zum Umschalten von ei nem Bestimmen der Position des autonomen Fahrzeugs mittels eines globalen Naviga tionssatellitensystems zu dem Bestimmen der Position des autonomen Fahrzeugs ba sierend auf der Sensorinformation und der Objektinformation, wenn die Positionsbe stimmungsgenauigkeit mittels des globalen Navigationssatellitensystems einen
Schwellwert unterschreitet.
11. System zur Navigation eines autonomen Fahrzeugs (100) nach Anspruch 9, wobei das Positionsbestimmungsmittel (115) ferner eingerichtet ist zum Umschalten von ei nem Bestimmen der Position des autonomen Fahrzeugs mittels eines globalen Naviga tionssatellitensystems zu dem Bestimmen der Position des autonomen Fahrzeugs ba- sierend auf der Sensorinformation und der Objektinformation, in Abhängigkeit der von dem autonomen Fahrzeug ausgeführten Tätigkeit.
PCT/EP2020/053512 2019-03-14 2020-02-12 Verfahren, vorrichtung und system zur navigation autonomer fahrzeuge WO2020182391A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/438,472 US20220155076A1 (en) 2019-03-14 2020-02-12 Method, apparatus and system for navigating autonomous vehicles
CN202080018605.7A CN113544465A (zh) 2019-03-14 2020-02-12 用于对自主式车辆进行导航的方法、设备和***
EP20705648.2A EP3938734A1 (de) 2019-03-14 2020-02-12 Verfahren, vorrichtung und system zur navigation autonomer fahrzeuge

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019203484.5A DE102019203484A1 (de) 2019-03-14 2019-03-14 Verfahren, Vorrichtung und System zur Navigation autonomer Fahrzeuge
DE102019203484.5 2019-03-14

Publications (1)

Publication Number Publication Date
WO2020182391A1 true WO2020182391A1 (de) 2020-09-17

Family

ID=69593658

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/053512 WO2020182391A1 (de) 2019-03-14 2020-02-12 Verfahren, vorrichtung und system zur navigation autonomer fahrzeuge

Country Status (5)

Country Link
US (1) US20220155076A1 (de)
EP (1) EP3938734A1 (de)
CN (1) CN113544465A (de)
DE (1) DE102019203484A1 (de)
WO (1) WO2020182391A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020205314A1 (de) 2020-04-27 2021-10-28 Zf Friedrichshafen Ag Detektionselement, Fahrzeug und Verfahren
DE102020213282A1 (de) 2020-10-21 2022-04-14 Zf Friedrichshafen Ag Kamerabasierte Inventarisierung von Frachtkontainern

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060069470A1 (en) * 2004-09-30 2006-03-30 International Business Machines Corporation Bi-directional absolute automated tracking system for material handling
DE102016108446A1 (de) 2016-05-06 2017-11-09 Terex Mhps Gmbh System und Verfahren zur Bestimmung der Position eines Transportfahrzeugs sowie Transportfahrzeug
WO2018014088A1 (en) * 2016-07-22 2018-01-25 Commonwealth Scientific And Industrial Research Organisation Low resolution adaptive distance display
US20180096299A1 (en) * 2016-09-30 2018-04-05 Staples, Inc. Hybrid Modular Storage Fetching System
US20180339890A1 (en) * 2017-05-23 2018-11-29 Baldomar Systems Llc Automating the operation of Vehicle Lifts

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070129879A1 (en) * 2005-12-07 2007-06-07 Honeywell International Inc. Precision approach guidance using global navigation satellite system (GNSS) and ultra-wideband (UWB) technology
US7826969B2 (en) * 2006-12-21 2010-11-02 Deere & Company Determining position of a vehicle with reference to a landmark
GB0802444D0 (en) * 2008-02-09 2008-03-19 Trw Ltd Navigational device for a vehicle
US20110039573A1 (en) * 2009-08-13 2011-02-17 Qualcomm Incorporated Accessing positional information for a mobile station using a data code label
US8862395B2 (en) * 2011-01-31 2014-10-14 Raytheon Company Coded marker navigation system and method
US8825371B2 (en) * 2012-12-19 2014-09-02 Toyota Motor Engineering & Manufacturing North America, Inc. Navigation of on-road vehicle based on vertical elements
CN103293543B (zh) * 2013-06-03 2015-05-06 安徽富煌和利时科技股份有限公司 一种利用gps定位信息自动实现行车区段提示的***及提示方法
DE102014002150B3 (de) * 2014-02-15 2015-07-23 Audi Ag Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
US9948512B2 (en) * 2016-01-14 2018-04-17 Veniam, Inc. Systems and methods for remote configuration update and distribution in a network of moving things
US10818187B2 (en) * 2017-07-17 2020-10-27 Uatc, Llc Systems and methods for deploying an autonomous vehicle to oversee autonomous navigation
DE102017118078A1 (de) * 2017-08-09 2019-02-14 Safran Electronics & Defense Lokalisationseinrichtung für ein Kraftfahrzeug, Fahrerassistenzeinrichtung, Kraftfahrzeug sowie Verfahren zum Lokalisieren eines Kraftfahrzeugs
CN108931801B (zh) * 2018-06-06 2022-05-17 苏州智加科技有限公司 一种集装箱码头区域的车辆自动驾驶方法和***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060069470A1 (en) * 2004-09-30 2006-03-30 International Business Machines Corporation Bi-directional absolute automated tracking system for material handling
DE102016108446A1 (de) 2016-05-06 2017-11-09 Terex Mhps Gmbh System und Verfahren zur Bestimmung der Position eines Transportfahrzeugs sowie Transportfahrzeug
WO2018014088A1 (en) * 2016-07-22 2018-01-25 Commonwealth Scientific And Industrial Research Organisation Low resolution adaptive distance display
US20180096299A1 (en) * 2016-09-30 2018-04-05 Staples, Inc. Hybrid Modular Storage Fetching System
US20180339890A1 (en) * 2017-05-23 2018-11-29 Baldomar Systems Llc Automating the operation of Vehicle Lifts

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CARDARELLI ELENA ET AL: "Cooperative cloud robotics architecture for the coordination of multi-AGV systems in industrial warehouses", MECHATRONICS, PERGAMON PRESS, OXFORD, GB, vol. 45, 12 May 2017 (2017-05-12), pages 1 - 13, XP085144428, ISSN: 0957-4158, DOI: 10.1016/J.MECHATRONICS.2017.04.005 *

Also Published As

Publication number Publication date
EP3938734A1 (de) 2022-01-19
CN113544465A (zh) 2021-10-22
DE102019203484A1 (de) 2020-09-17
US20220155076A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
EP2490092B1 (de) Verfahren zur autarken Lokalisierung eines fahrerlosen, motorisierten Fahrzeugs
EP2526378B1 (de) Verfahren und system zum erfassen der position eines fahrzeuges
DE10234730A1 (de) Verfahren zur Positionsbestimmung eines Transportfahrzeuges
EP2327652B1 (de) Verfahren zur Ermittlung von Position und Orientierung eines dreidimensionalen Objekts, Steuerungsprogramm und Postionierungserfassungssystem
WO2020182391A1 (de) Verfahren, vorrichtung und system zur navigation autonomer fahrzeuge
DE102019215334A1 (de) Fahrerloses Transportfahrzeug für die innerbetriebliche Warenlogistik und Steuerverfahren
WO2003096052A2 (de) Vorrichtung zur lokalisierung mit festen und/oder veränderlichen landmarken
DE102018009114A1 (de) Verfahren zur Bestimmung der Position eines auf einer Verfahrfläche bewegbaren Mobilteils und Anlage mit Mobilteil zur Durchführung des Verfahrens
DE102009004854B4 (de) Verfahren und System zur Positionsbestimmung eines Flurförderzeugs
EP0635773A2 (de) Verfahren zur Erstellung einer Umgebungskarte und zur Bestimmung einer Eigenposition in der Umgebung durch eine selbstbewegliche Einheit
EP3977225B1 (de) Verfahren zur erstellung einer umgebungskarte für die verwendung bei der autonomen navigation eines mobilen roboters
EP3246728B1 (de) Positionsbestimmungsvorrichtung
US20200307575A1 (en) Vehicle comprising a working equipment, and a working equipment, and a method in relation thereto
DE202010018131U1 (de) Überwachungsvorrichtung
DE102019203200A1 (de) Steuersystem für ein fahrerloses Transportfahrzeug
AT509118A1 (de) Verfahren und vorrichtung zum erfassen der position eines fahrzeuges in einem definierten bereich
DE102019128253B4 (de) Verfahren zum Navigieren eines Flurförderzeugs
DE102006037232A1 (de) Die Erfindung betrifft ein System zur Navigation eines autonomen Fahrzeugs
DE102020213111A1 (de) Verfahren und System zur Bestimmung einer Pose oder Position eines mobilen Endgeräts
US20140088859A1 (en) Process and device to track containers being moved in a harbor terminal with the assistance of a tractor
WO2018046248A1 (de) System und verfahren zum steuern von nutzfahrzeugen
EP3718820B1 (de) Fahrzeug mit einer arbeitsausrüstung sowie eine arbeitsausrüstung und ein verfahren im zusammenhang damit
EP4239428A2 (de) Verfahren und system zur navigation eines flurförderzeugs
DE102022118151A1 (de) Fahrerloses Transportsystem
DE202020005653U1 (de) System zur Lokalisierung und Identifizierung von Objekten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20705648

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2020705648

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2020705648

Country of ref document: EP

Effective date: 20211014