WO2022243218A1 - Verfahren, computerprogrammprodukt, steuereinrichtung und fahrzeug - Google Patents

Verfahren, computerprogrammprodukt, steuereinrichtung und fahrzeug Download PDF

Info

Publication number
WO2022243218A1
WO2022243218A1 PCT/EP2022/063132 EP2022063132W WO2022243218A1 WO 2022243218 A1 WO2022243218 A1 WO 2022243218A1 EP 2022063132 W EP2022063132 W EP 2022063132W WO 2022243218 A1 WO2022243218 A1 WO 2022243218A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
sensor signal
pos4
optical sensor
pos1
Prior art date
Application number
PCT/EP2022/063132
Other languages
English (en)
French (fr)
Inventor
Nicolas Jecker
Lasse SCHNEPEL
Ludovic Mosnier-Thoumas
Malte JOOS
Thirumalai Kumarasamy AYYAPPAN
Fabian Fuchs
Original Assignee
Valeo Schalter Und Sensoren Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter Und Sensoren Gmbh filed Critical Valeo Schalter Und Sensoren Gmbh
Publication of WO2022243218A1 publication Critical patent/WO2022243218A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically

Definitions

  • the present invention relates to a method, a computer program product, a control device and a vehicle.
  • Vehicles are known that have an automated parking function that is particularly suitable for automatically parking the vehicle in a suitable multi-storey car park or a suitable parking lot. Such systems are referred to as automated valet parking systems, for example.
  • automated valet parking systems for example.
  • the vehicle can be controlled remotely, with the multi-storey car park having sensors and path planning means, for example, in order to control the vehicle. There can be various intermediate levels between these two types, in which the functions are distributed differently between the vehicle and the parking garage.
  • a data set is transmitted to the vehicle beforehand or when entering the respective parking garage, which enables the vehicle to orientate itself using the distributed features, such as ARUCO codes.
  • the data record contains, for example, an assignment of a respective position of the feature and/or information about the location of a driving corridor relative to the feature. This information is determined by the operator of the multi-storey car park, for example when it is put into operation, and stored in the data record.
  • orientation such as ARUCO codes
  • a method for validating a system comprising a plurality of optically detectable and clearly distinguishable markers, which are arranged at certain positions within a predetermined area, and a data set which assigns information comprising a target position to each of the markers, is proposed .
  • the method has the steps: a) Driving along the predetermined area with a vehicle, b) receiving a position sensor signal indicative of a position of the vehicle, c) receiving an optical sensor signal from an area surrounding the vehicle from an optical sensor unit of the vehicle, the optical sensor signal contains at least one specific one of the plurality of markers, d) determining the specific marker contained in the received optical sensor signal and determining an actual position of the specific marker as a function of the received position sensor signal and the received optical sensor signal, e) comparing the determined actual position of the specific marker with the target position of the specific marker in the data set, and f) confirming the target position associated with the specific marker in the data set as a function of the comparison.
  • This method has the advantage that the correct arrangement of the markers for operating the system can be checked reliably and with relatively little effort and quickly.
  • the method relates in particular to putting the system into operation, but it can also be used at any time or regularly after the system has been put into operation.
  • the method thus offers particular advantages over a manual check of the correct arrangement of the markers, which is very time-consuming and also has a higher susceptibility to errors.
  • the actual positions of the markers are determined automatically by scanning the predetermined area with the vehicle. is driving and while driving off, on the one hand, the position of the vehicle is tracked and, on the other hand, optical sensor signals of the markers are recorded. The determined actual position is then compared with the target position.
  • the system can also be referred to as a type 1 valet parking system.
  • the system includes a plurality of markers, which are clearly distinguishable from the other markers within the system due to their respective appearance. For example, ARUCO codes are involved, each code being present only once in the system. Each respective marker is uniquely linked to an assigned identification number (ID).
  • ID identification number
  • the system also includes the data set that includes the assignment of the respective position to the markers.
  • the data set is generated, for example, in a design phase of the system, in which the markers are virtually distributed in the predetermined area according to predetermined rules. It should be noted that this data set may differ from the data that is transmitted to vehicles for orientation using the markers during regular operation of the system.
  • the markers are arranged in the predetermined area according to the determined distribution, which is done by the appropriate personnel. Errors can occur here, for example markers can be mixed up and attached to the wrong positions, which is why the arrangement must be checked afterwards. The proposed method is used for this purpose.
  • the predetermined area is covered with a vehicle.
  • This can be done manually by an operator and/or semi-autonomously, with the operator being supported, or it can be done fully autonomously, with the vehicle being controlled fully autonomously by a corresponding assistance system.
  • the operator or the assistance system follows a predetermined trajectory with the vehicle.
  • the predetermined trajectory leads completely once through the predetermined area.
  • each lane is preferably traveled within the predetermined area in each intended direction of travel. It is thereby sufficient that the markers are detected from every possible position that is reached by vehicles during operation of the system.
  • orientation takes place, for example, on the basis of sensor signals such as ultrasound, camera, radar and the like, with contours and objects in the area being determined and the vehicle is controlled along the predetermined trajectory while avoiding collision with objects.
  • the position of the vehicle is determined on the basis of the received position sensor signal. This can be permanently or continuously active, so that the position of the vehicle is available at all times, or it can take place on request and/or in certain areas of the predetermined area.
  • the position sensor signal is based, for example, on the vehicle's own sensors, such as odometry.
  • external elements such as measurement points or the like arranged in the predetermined area, which are recorded by a special measurement unit of the vehicle, can also be used when determining the position sensor signal.
  • the position of the vehicle on the basis of the position sensor signal is preferably accurate to within a few centimeters, for example up to 10 cm, preferably up to 5 cm, more preferably up to 3 cm. It should be noted that the position of the vehicle refers to a certain point of the vehicle, for example the center of a second (rear) axis of the vehicle.
  • the position can also include information about an orientation of the vehicle, for example in the form of an angle (azimuth angle).
  • the optical sensor signal of the surroundings of the vehicle is, for example, a camera image that was captured by an on-board camera. A specific one of the plurality of markers is contained in the camera image, that is to say the specific marker is visible in the camera image.
  • the optical sensor signal can comprise a single image or can also comprise a stream of images.
  • the fact that the marker contained in the received optical sensor signal is determined means in particular that the unique marker ID is determined.
  • the specific marker contained in the received optical sensor signal is determined, for example, using computer vision algorithms. This includes in particular a transformation and/or analysis of the optical sensor signal. If the optical sensor signal includes a digital image with a number of pixels, this includes, for example, rectification of the image, determination of contrast values between pixels and/or image areas, determination of geometric shapes in the image, and the like.
  • Machine learning algorithms can also be used to determine the specific marker, such as a neural network trained to recognize the markers in images, preferably a CNN (convolutional neural network).
  • the actual position of the specific marker is determined as a function of the received position sensor signal and the received optical sensor signal.
  • a current relative position between the specific marker and the vehicle is determined on the basis of the optical sensor signal. This can be done, for example, on the basis of optical principles.
  • a distance between the vehicle and the marker can be determined from a predetermined actual size of the marker and an apparent size of the marker determined on the basis of the optical sensor signal.
  • an angle between a current direction of travel or orientation of the vehicle to a Line of sight to the marker can be determined.
  • the actual position of the specific marker can be determined, for example by vectorial addition.
  • the actual position and the target position are preferably defined by two coordinates that relate to a predetermined coordinate system.
  • the coordinates are denoted by x and y, for example.
  • the actual position and the target position can also be defined by orientation information.
  • the orientation information indicates, for example, an orientation for the respective marker, which relates in particular to a direction of gravity.
  • the orientation information comprises, in particular, an angle between a predetermined preferred direction of the respective marker and the direction of gravity. It can also be said that the orientation information indicates which side of the marker is "up" and which side is "down".
  • the determined actual position of the specific marker is then compared with the target position of the specific marker in the data set. For example, a difference between the actual position and the target position can be formed. If the two positions match, this difference is 0 (zero). The greater the deviation between the two positions, the greater the difference will be.
  • the comparison can include a separate comparison of the x and y coordinates of the respective position. This can be advantageous since it can be immediately deduced how the actual position of the specific marker is to be adjusted in order to bring the actual position into agreement with the target position.
  • the target position assigned to the specific marker in the data record is confirmed or not. If the target position is confirmed, it means that the actual position of the determined marker coincides with the target position sufficiently to provide reliable target position based orientation and navigation for vehicles. If the target position is not confirmed, then either the target position in the dataset needs to be adjusted or the actual position of the particular marker needs to be changed.
  • the proposed method also determines when two markers are arranged in an interchanged manner (ie a first marker is arranged at the target position of a second marker and vice versa).
  • this additionally includes outputting a comparison result and/or outputting a confirmation result.
  • the proposed method can also be referred to as a method for validating an arrangement of a plurality of optically detectable and clearly distinguishable markers arranged within a predetermined area at specific positions, each of the markers being arranged according to a predetermined target position.
  • step a) is carried out under autonomous control by an on-board assistance system.
  • step b) includes the reception of odometry data of the vehicle and/or the reception of an optical sensor signal of an optical sensor of the vehicle.
  • the odometry data include, for example, a wheel speed sensor signal from one or more wheels of the vehicle and a steering angle sensor signal from one or more steering angles of the vehicle and/or a wheel angle sensor signal from one or more wheels of the vehicle.
  • the optical sensor signal includes, for example, images from a camera, a lidar sensor signal and/or a radar sensor signal.
  • VSLAM positioning of the vehicle can be performed on the basis of the optical sensor signal.
  • a digital map of the predetermined area is provided.
  • the digital map includes, for example, positions of specific features of the predetermined area that can be detected on the basis of the optical sensor signal. Positioning based on the optical sensor signal can be used to calibrate the odometrically determined position, since errors in odometry add up as the distance traveled increases.
  • the method includes receiving a predetermined position sensor signal received from an external device such as a photo eye or contact loop or the like when the vehicle is at a predetermined position.
  • the predetermined position sensor signal is received when the vehicle drives through a light barrier. This can be used to calibrate the current vehicle position.
  • steps b)-d) are carried out by an on-board control unit, and steps e) and f) are carried out by a control unit external to the vehicle.
  • the determined actual position of the specific marker is transmitted to the external control unit. This can be done directly, for example by means of a wireless data connection such as WLAN or a 3G, 4G or 5G cellular connection. Alternatively, the determined actual positions can first be temporarily stored and then collectively transmitted to the external control unit once the journey is complete. Accordingly, steps e) and f) can be carried out directly or subsequently after the journey has been completed.
  • step d) also includes storing the determined marker together with the determined actual position of the marker in a further data set, and after the predetermined area has been traversed the further data set comprising all markers determined during the traversing of be transmitted to the external control unit in the vehicle.
  • the fact that the determined marker is stored with the determined actual position means in particular that, for example, the marker ID is stored with the actual position.
  • step d) additionally includes a transmission of the determined marker together with the determined actual position of the marker to the external control unit.
  • this includes determining a current vehicle position based on the received position sensor signal and determining a relative position of the marker to the vehicle based on a position, distortion and/or size of the specific marker in the received optical sensor signal, wherein the actual position of the specific marker is determined on the basis of the determined current vehicle position and the determined relative position.
  • step d) includes determining a determination error for the determined actual position, steps e) and f) being carried out as a function of the determined determination error.
  • the determination error results, for example, from a measurement error of the position sensor signal and a resulting inaccuracy in determining the position of the vehicle, and from an inaccuracy in determining a relative position between the vehicle and marker based on the optical sensor signal.
  • step f) comprises determining a distance between the desired position and the actual position, and in step f) the Target position is confirmed when the distance between the target position and the actual position is less than or equal to a certain threshold.
  • the threshold can be set differently for different markers of the system.
  • the actual position is stored in the data set as the target position if the distance between the target position and the actual position is less than or equal to a specific threshold value.
  • the threshold value does not have to agree with the threshold value that is used to confirm the target position according to the above embodiment.
  • the two threshold values can have different values for a specific marker.
  • the target position is corrected by the current position when the target position is confirmed.
  • This has the advantage that the target position corresponds more precisely to the real arrangement of the markers.
  • the arrangement of the specific marker is changed, for example, so that it is arranged according to the target position.
  • a computer program product which comprises instructions which, when the program is executed by a computer, cause it to carry out steps b)-f) of the method described above.
  • a computer program product such as a computer program means
  • a server in a network, for example, as a storage medium such as a memory card, USB stick, CD-ROM, DVD, or in the form of a downloadable file. This can be done, for example, in a wireless communication network by the Transmission of a corresponding file with the computer program product or the computer program means.
  • a control device for validating an arrangement of a plurality of optically detectable and clearly distinguishable markers which can be arranged at specific positions within a predetermined area, with each of the markers being arranged according to a predetermined target position.
  • the control device has: a receiving unit for receiving a position sensor signal indicative of a position of a vehicle driving in the predetermined area with the markers arranged at the specific positions, and for receiving an optical sensor signal of an area surrounding the vehicle from an optical sensor unit of the vehicle, wherein the optical sensor signal contains at least one specific one of the plurality of markers, a determination unit for determining the specific marker contained in the received optical sensor signal and for determining an actual position of the specific marker as a function of the received position sensor signal and the received optical sensor signal, a comparison unit for comparing the determined actual position of the specific marker with the predetermined target position of the specific marker, and a confirmation unit for confirming the arrangement of the specific marker according to the predetermined target position ition depending on the comparison.
  • This control device is advantageously designed for use in a method according to the first aspect.
  • the forms of execution and features described for the proposed method apply accordingly to the proposed control device.
  • the respective unit of the control device can be implemented in terms of hardware and/or software.
  • the respective unit can be embodied, for example, as a computer or as a microprocessor.
  • the respective unit can be designed as a computer program product, as a function, as a routine, as an algorithm, as part of a program code or as an executable object.
  • each of the units mentioned here can also be designed as part of a higher-level control system of the vehicle, such as a central electronic control device and/or an engine control unit (ECU: Engine Control Unit).
  • ECU Engine Control Unit
  • the different units of the control device can be arranged in a distributed manner, that is to say they do not have to be arranged in an integrated system and/or at one location.
  • the receiving unit and the determination unit are arranged in or on a vehicle
  • the comparison unit and the confirmation unit are arranged in an infrastructure, such as a server in a data center or the like.
  • a vehicle is proposed with an optical sensor unit for detecting and outputting an optical sensor signal of an area surrounding the vehicle and with a control device according to the third aspect.
  • the vehicle is, for example, a passenger car or a truck.
  • the vehicle can also be embodied as a robotic vehicle or a robot that has no seating for users.
  • the vehicle preferably includes a number of sensor units that are set up to detect the driving state of the vehicle and to detect an environment of the vehicle.
  • sensor units of the vehicle are image recording devices, such as a camera, radar (radio detection and ranging) or a lidar (light detection and ranging), ultrasonic sensors, location sensors, wheel angle sensors and/or wheel speed sensors.
  • the sensor units are each set up to output a sensor signal, for example to the control device.
  • the vehicle has an assistance system that is set up to control the vehicle to drive autonomously along the predetermined area using the markers arranged at the specific positions.
  • the fact that the assistance system controls the vehicle autonomously means in particular that the vehicle travels the predetermined area without human control and/or without human intervention and thereby detects optical sensor signals of the environment with the markers and at the same time detects position sensor signals.
  • the assistance system can be part of the control device, for example.
  • Figure 1 shows a schematic example of a multiple marker system
  • Fig. 2 shows an example with two data sets
  • FIG. 4 shows a schematic block diagram of an exemplary embodiment of a control device
  • FIG. 5 shows a schematic block diagram of a method for validating a system with multiple markers. Elements that are the same or have the same function have been provided with the same reference symbols in the figures, unless otherwise stated.
  • FIG. 1 shows a schematic example of a system 100 with a plurality of markers ID1 - ID4 arranged in a predetermined area 200 . It should be noted that only a section of the predetermined area 200 is shown in FIG. 1 .
  • the markers ID1-ID4 are in the form of ARUCO codes, for example, and are arranged at specific positions POS1-POS4 (see FIG. 2) in the predetermined area 200.
  • FIG. 2 also includes a data record DATAO (see FIG. 2) which contains a target position P1-P4 for each marker ID1-ID4 of the system.
  • the markers ID1 - ID4 are provided so that vehicles that have an autonomous driving function can orientate themselves in the predetermined area 200 .
  • a correspondingly equipped vehicle can be set up to drive within a predetermined lane and to drive to a specific destination, such as a parking lot or an exit, in the predetermined area 200 based on detection of the markers ID1-ID4.
  • This function can only be carried out reliably if the markers ID1-ID4 are arranged at their intended target positions P1-P4 (see FIG. 2), which is why the arrangement of the markers ID1-ID4 must be checked.
  • the system 100 is validated by a control device 110 (see FIG. 5) in combination with the vehicle 300.
  • the control device 110 comprises a receiving unit 112, a determination unit 114, a comparison unit 116 and a confirmation unit 118.
  • the receiving unit 112 and the determination unit 114 are arranged in the vehicle 300 and the comparison unit 116 and the confirmation unit 118 are arranged in the infrastructure.
  • control device 110 is part of vehicle 300.
  • the vehicle 300 travels, for example, along the trajectory TR through the predetermined area 200. The journey takes place in particular autonomously.
  • a position sensor 302 here including a wheel speed sensor and a wheel angle sensor, detects a position sensor signal indicative of the vehicle's 300 position.
  • an odometry is performed on the basis of the position sensor signal.
  • an optical sensor 304 which is embodied as a camera, for example, detects an optical sensor signal from the surroundings of vehicle 300. Depending on the position and alignment of vehicle 300 and the detection range of camera 304, one or more of the markers ID1 is in the optical sensor signal - ID4 included.
  • the receiving unit 112 of the control device 100 receives the position sensor signal and the optical sensor signal.
  • the determination unit 114 determines the marker(s) ID1-ID4 contained in the received optical sensor signal. For example, the determination unit 114 determines an identification number of the contained marker ID1-ID4.
  • the determination unit 114 determines an actual position POS1-POS4 of the contained marker ID1-ID4 as a function of the received position sensor signal and the received optical sensor signal. For example, a current relative position between marker ID1-ID4 and vehicle 300 is determined on the basis of the optical sensor signal. For example, a distance between vehicle 300 and marker ID1-ID4 can be determined from a predetermined actual size of marker ID1-ID4 and an apparent size of marker ID1-ID4 determined on the basis of the optical sensor signal. Furthermore, for example based on the position of the marker ID1-ID4 in the optical sensor signal, an angle between a current direction of travel or orientation of the vehicle 300 to a line of sight to the marker ID1-ID4 can be determined. Based on the current vehicle position known from the position sensor signal, the actual position POS1-POS4 of the marker ID1-ID4 can be determined, for example by vectorial addition.
  • the vehicle 300 travels the entire predetermined area 200 and, as described above, determines a corresponding actual position POS1-POS4 for each detected marker ID1-ID4. In this way, for example, a data set DATAR (see FIG. 2) is determined, which contains the determined actual position POS1-POS4 for each marker ID1-ID4.
  • the Determination unit 114 is connected to comparison unit 116, for example by means of a wireless communication link, as indicated by the two antennas (without reference symbols).
  • the determined data set DATAR is compared by the comparison unit 116 with the specified data set DATAO, which for each marker ID1-ID4 of the system 100 includes the intended target position P1-P4.
  • a difference between the determined actual position POS1-POS4 and the target position P1-P4 is formed for each of the markers ID1-ID4. The greater a respective difference, the greater the deviation of the respective actual position POS1 - POS4 from the target position P1 - P4.
  • the respective position is preferably given by two-dimensional coordinates in a specific coordinate system, as shown in FIG. 3 by way of example.
  • 3 shows two diagrams, which are examples of the data set DATAO with the target positions P1-P4 and the data set DATAR with the determined actual positions POS1-POS4.
  • the respective position is defined by two coordinates x, y.
  • a respective data set DATAO, DATAR forms, for example, a digital map of the arrangement of the markers ID1-ID4.
  • the data set DATAO can also contain, for example, contours of objects and/or intended lanes.
  • the respective position P1-P4, POS1-POS4 relates, for example, to a predetermined corner of the respective marker ID1-ID4.
  • the predetermined corner of the marker ID1-ID4 can be determined on the basis of the optical sensor signal, so that the orientation of the respective marker ID1-ID4 can be checked.
  • the figure for the fourth marker ID4 is shown as an example, the determined actual position POS4 of which relates to the lower right corner of the marker ID4, which indicates that this marker ID4 is arranged rotated by 90° compared to the intended arrangement.
  • the y-value of the actual position POS4 matches the y-value of the target position P4 match, while the x-value of the actual position POS4 deviates from the x-value of the setpoint position P4 (by the amount of a marker width).
  • the confirmation unit 118 confirms the target positions P1-P4 of the markers ID1-ID4 of the system 100. If the actual position POS1-POS4 of a respective marker matches the target position P1-P4 with sufficient accuracy , so that a reliable orientation and navigation based on the target position P1 - P4 for vehicles is given, the target position P1 - P4 is confirmed. If the target position P1 - P4 is not confirmed for one or more of the markers ID1 - ID4, then either the target position P1 - P4 in the data set DATAO must be adjusted or the actual position POS1 - POS4 of the relevant marker ID1 - ID4 must be changed, for example by moving the relevant marker ID1 - ID4.
  • FIG. 4 shows a schematic block diagram of an exemplary embodiment of a control device 110, which is set up to carry out the method described with reference to FIG.
  • the controller 110 may also be configured to perform the processing as described above with reference to FIGS. 1-3.
  • the control device 110 is used to validate an arrangement of a plurality of optically detectable and clearly distinguishable markers ID1 - ID4 (see Fig. 1 - 3), which are located within a predetermined area 200 (see Fig. 1) at specific positions POS1 - POS4 (see Fig. 2 or 3) can be arranged, with each of the markers ID1-ID4 being arranged according to a predetermined desired position P1-P4.
  • the control device 110 has a receiving unit 112, which is used to receive a position sensor signal indicative of a position of a predetermined area 200 with the markers ID1 - ID4 arranged at the specific positions POS1 - POS4 and to receive an optical sensor signal of an environment of vehicle 300 set up by an optical sensor unit 304 of vehicle 300, the optical sensor signal containing at least one specific one of the plurality of markers ID1-ID4. Furthermore, the control device 110 has a determination unit 114 for determining the in the received NEN optical sensor signal contained specific marker ID1 - ID4 and for determining an actual position POS1 - POS4 of the specific marker ID1 - ID4 depending on the received position sensor signal and the received optical sensor signal.
  • control device 110 comprises a comparison unit 116 for comparing the determined actual position POS1 - POS4 of the specific marker ID1 - ID4 with the predetermined target position P1 - P4 of the specific marker ID1 - ID4, and has a confirmation unit 118 for confirming the Arrangement of the specific marker ID1 - ID4 according to the predetermined target position P1 - P4 depending on the comparison.
  • FIG. 5 shows a schematic block diagram of a method for validating a system 100 (see FIG. 1) with a plurality of markers ID1-ID4 (see FIGS. 1-3).
  • the system 100 comprises a plurality of optically detectable and clearly distinguishable markers ID1 - ID4, which are arranged within a predetermined area 200 (see Fig. 1) at specific positions POS1 - POS4 (see Fig. 2 or 3), and a data set DATAO (see Fig. 2 or 3) which assigns information comprising a target position P1 - P4 to each of the markers ID1 - ID4.
  • a first step S1 the predetermined area 200 is covered with a driving tool 300 (see FIG. 1).
  • a position sensor signal indicative of a position of vehicle 300 is received.
  • an optical sensor signal from an area surrounding vehicle 300 is received by an optical sensor unit 304 of vehicle 300, the optical sensor signal containing at least one specific one of the plurality of markers ID1-ID4.
  • the specific marker ID1-ID4 contained in the received optical sensor signal is determined and an actual position POS1-POS4 of the specific marker ID1-ID4 is determined as a function of the received position sensor signal and the received optical sensor signal.
  • the determined actual position POS1-POS4 of the specific marker ID1-ID4 is compared with the target position P1-P4 of the specific marker ID1-ID4 in the data set DATAO.
  • the desired position P1-P4 assigned to the specific marker ID1-ID4 in the data set DATAO is confirmed as a function of the comparison.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Validieren eines Systems (100) umfassend mehrere optisch erfassbare und eindeutig unterscheidbare Marker (ID1 – ID4), die innerhalb eines vorbestimmten Bereichs (100) an bestimmten Positionen (POS1 – POS4) angeordnet sind, und einen Datensatz (D0), der jedem der Marker (ID1 – ID4) eine Information umfassend eine Soll-Position (P1 – P4) zuordnet. Im Rahmen des vorgeschlagenen Verfahrens werden die Ist-Positionen (POS1 – POS4) der Marker (ID1 – ID4) automatisch bestimmt, indem mit einem Fahrzeug (300) der vorbestimmte Bereich (200) abgefahren wird und während des Abfahrens einerseits die Position des Fahrzeugs (300) mitverfolgt wird und andererseits optische Sensorsingale der Marker (ID1 – ID4) erfasst werden. Anschließend wird die ermittelte Ist-Position (POS1 – POS4) mit der Soll-Position (P1 – P4) verglichen.

Description

VERFAHREN, COMPUTERPROGRAMMPRODUKT, STEUEREINRICHTUNG UND
FAHRZEUG
Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogrammprodukt, eine Steu ereinrichtung und ein Fahrzeug.
Es sind Fahrzeuge bekannt, die eine automatisierte Parkfunktion aufweisen, die insbesonde re zum automatischen Parken des Fahrzeugs in einem geeigneten Parkhaus oder einem geeigneten Parkplatz geeignet sind. Derartige Systeme werden beispielsweise als automati sierte Valet-Parksysteme bezeichnet. Hierbei wird zwischen zwei Typen unterschieden. Bei einem ersten Typ steuert sich das Fahrzeug selbst, wobei das Parkhaus beispielsweise über geeignete Merkmale verfügt, die zur Orientierung des Fahrzeugs dienen, wie beispielsweise ARUCO-Codes. Bei einem zweiten Typ ist das Fahrzeug fernsteuerbar, wobei das Parkhaus beispielsweise über Sensorik und Pfadplanungsmittel verfügt, um das Fahrzeug zu steuern. Zwischen diesen beiden Typen kann es verschiedene Zwischenstufen geben, bei denen sich die Funktionen unterschiedlich auf Fahrzeug und Parkhaus verteilen.
Bei Typ-1 Valet-Parksystemen wird dem Fahrzeug beispielsweise vorab oder bei der Einfahrt in das jeweilige Parkhaus ein Datensatz übermittelt, der dem Fahrzeug die Orientierung an hand der verteilt angeordneten Merkmale, wie ARUCO-Codes, ermöglicht. Der Datensatz enthält beispielsweise eine Zuordnung einer jeweiligen Position des Merkmals und/oder An gaben zur Lage eines Fahrkorridors relativ zu dem Merkmal. Diese Informationen werden von dem Betreiber des Parkhauses beispielsweise bei Inbetriebnahme ermittelt und in dem Datensatz hinterlegt. Für eine reibungslose Funktion des Systems ist es von äußerster Wich tigkeit, dass die in dem Parkhaus verteilt angebrachten und zur Orientierung dienenden Merkmale, beispielsweise ARUCO-Codes, an exakt derjenigen Position angeordnet sind, die in dem Datensatz gespeichert ist, da es ansonsten zu Fehlorientierungen oder gar zu Kollisi onen kommen kann. Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, das Über prüfen der Anordnung von optisch erfassbaren Markern zu verbessern.
Gemäß einem ersten Aspekt wird ein Verfahren zum Validieren eines Systems umfassend mehrere optisch erfassbare und eindeutig unterscheidbare Marker, die innerhalb eines vor bestimmten Bereichs an bestimmten Positionen angeordnet sind, und einen Datensatz, der jedem der Marker eine Information umfassend eine Soll-Position zuordnet, vorgeschlagen. Das Verfahren weist die Schritte auf: a) Abfahren des vorbestimmten Bereichs mit einem Fahrzeug, b) Empfangen eines für eine Position des Fahrzeugs indikativen Positionssensorsig nals, c) Empfangen eines optischen Sensorsignals einer Umgebung des Fahrzeugs von einer optischen Sensoreinheit des Fahrzeugs, wobei das optische Sensorsignal wenigstens einen bestimmten der mehreren Marker enthält, d) Ermitteln des in dem empfangenen optischen Sensorsignal enthaltenen bestimmten Markers und Ermitteln einer Ist-Position des bestimmten Markers in Abhängigkeit des emp fangenen Positionssensorsignals und des empfangenen optischen Sensorsignals, e) Vergleichen der ermittelten Ist-Position des bestimmten Markers mit der Soll- Position des bestimmten Markers in dem Datensatz, und f) Bestätigen der dem bestimmten Marker in dem Datensatz zugeordneten Soll- Position in Abhängigkeit des Vergleichs.
Dieses Verfahren weist den Vorteil auf, dass die korrekte Anordnung der Marker für einen Betrieb des Systems zuverlässig und mit relativ geringem Aufwand sowie schnell überprüf bar ist. Das Verfahren betrifft insbesondere eine Inbetriebnahme des Systems, es kann aber auch nach der Inbetriebnahme der System jederzeit oder regelmäßig genutzt werden. Das Verfahren bietet somit insbesondere Vorteile gegenüber einer manuellen Überprüfung der korrekten Anordnung der Marker, die sehr zeitaufwändig ist und zudem eine höhere Fehler anfälligkeit aufweist. Im Rahmen des vorgeschlagenen Verfahrens werden die Ist-Positionen der Marker automatisch bestimmt, indem mit dem Fahrzeug der vorbestimmte Bereich abge- fahren wird und während des Abfahrens einerseits die Position des Fahrzeugs mitverfolgt wird und andererseits optische Sensorsingale der Marker erfasst werden. Anschließend wird die ermittelte Ist-Position mit der Soll-Position verglichen.
Das System kann auch als Typ-1 Valet- Parksystem bezeichnet werden. Das System umfasst eine Mehrzahl der Marker, die aufgrund ihres jeweiligen Erscheinungsbilds innerhalb des Systems eindeutig von den anderen Markern unterscheidbar sind. Beispielsweise handelt es sich um ARUCO-Codes, wobei jeder Code nur einmal in dem System vorhanden ist. Ein je weiliger Marker ist eindeutig mit einer zugeordneten Identifikationsnummer (ID) verknüpft.
Das System umfasst ferner den Datensatz, der die Zuordnung der jeweiligen Position zu den Markern umfasst. Der Datensatz wird beispielsweise in einer Design-Phase des Systems erzeugt, in der die Marker gemäß vorbestimmten Regeln in dem vorbestimmten Bereich vir tuell verteilt werden. Es sei angemerkt, dass dieser Datensatz unterschiedlich zu den Daten sein kann, die während eines regulären Betriebs des Systems an Fahrzeuge zur Orientie rung anhand der Marker übertragen werden. Nach der Design-Phase werden die Marker in dem vorbestimmten Bereich gemäß der ermittelten Verteilung angeordnet, was durch ent sprechendes Personal erfolgt. Hierbei können Fehler auftreten, beispielsweise können Mar ker verwechselt und an falschen Positionen angebracht werden, weshalb die Anordnung im Nachgang zu überprüfen ist. Hierzu kommt das vorgeschlagene Verfahren zum Einsatz.
Anstelle von "Validieren" kann auch von "Überprüfen", "Testen", "Nachprüfen" und/oder "Kontrollieren" gesprochen werden.
In einem ersten Schritt des Verfahren wird der vorbestimmte Bereich mit einem Fahrzeug abgefahren. Dies kann manuell durch einen Operator erfolgen und/oder teilautonom, wobei der Operator unterstützt wird, oder es kann vollautonom erfolgen, wobei das Fahrzeug durch ein entsprechendes Assistenzsystem vollautonom gesteuert wird.
Beispielsweise fährt der Operator oder das Assistenzsystem eine vorbestimmte Trajektorie mit dem Fahrzeug ab. Die vorbestimmte Trajektorie führt insbesondere einmal komplett durch den vorbestimmten Bereich. Vorzugsweise wird hierbei jede Fahrspur innerhalb des vorbestimmten Bereichs in jeder vorgesehenen Fahrtrichtung abgefahren. Damit wird er reicht, dass die Marker von jeder möglichen Position aus, die während eines Betriebs des Systems von Fahrzeugen erreicht wird, erfasst werden.
Während des Abfahrens des vorbestimmten Bereichs erfolgt insbesondere keine Orientie rung anhand der Marker. Insbesondere, wenn das Fahrzeug ein vollautonomes Fahrzeug ist, das ohne einen Operator den vorbestimmten Bereich abfährt, erfolgt eine Orientierung bei spielsweise auf Basis von Sensorsignalen, wie Ultraschall, Kamera, Radar und dergleichen, wobei Konturen und Objekte in der Umgebung ermittelt werden und das Fahrzeug entlang der vorbestimmten Trajektorie unter Vermeidung einer Kollision mit Objekten gesteuert wird.
Während des Abfahrens des vorbestimmten Bereichs erfolgt insbesondere eine Positions ermittlung des Fahrzeugs auf Basis des empfangenen Positionssensorsignals. Diese kann dauerhaft oder kontinuierlich aktiv sein, so dass zu jedem Zeitpunkt die Position des Fahr zeugs vorliegt, oder kann auf Abruf und/oder in bestimmten Bereichen des vorbestimmten Bereichs erfolgen.
Das Positionssensorsignal basiert beispielsweise auf fahrzeugeigener Sensorik, wie einer Odometrie. Alternativ oder zusätzlich können auch externe Elemente, wie in dem vorbe stimmten Bereich angeordnete Vermessungspunkte oder dergleichen, die von einer speziel len Vermessungseinheit des Fahrzeugs erfasst werden, bei der Ermittlung des Positions sensorsignals genutzt werden.
Die Position des Fahrzeugs auf Basis des Positionssensorsignals ist vorzugsweise bis auf wenige Zentimeter genau, beispielsweise bis auf 10 cm, bevorzugt bis auf 5 cm, weiter be vorzugt bis auf 3 cm. Es sei angemerkt, dass sich die Position des Fahrzeug auf einen be stimmten Punkt des Fahrzeugs bezieht, beispielsweise den Mittelpunkt einer zweiten Achse (Hinterachse) des Fahrzeugs. Die Position kann ferner eine Information einer Ausrichtung des Fahrzeugs umfassen, beispielsweise in Form eines Winkels (Azimut-Winkel). Das optische Sensorsignal der Umgebung des Fahrzeugs ist beispielsweise ein Kamerabild, das von einer fahrzeugeigenen Kamera erfasst wurde. In dem Kamerabild ist ein bestimmter der mehreren Marker enthalten, das heißt, der bestimmte Marker ist in dem Kamerabild sichtbar. Das optische Sensorsignal kann ein einzelnes Bild umfassen oder kann auch einen Bilderstrom umfassen.
Darunter, dass der in dem empfangenen optischen Sensorsignal enthaltene Marker ermittelt wird, wird insbesondere verstanden, dass die eindeutige Marker-ID ermittelt wird.
Das Ermitteln des in dem empfangenen optischen Sensorsignal enthaltenen bestimmten Markers erfolgt beispielsweise unter Anwendung von Computer-Vision-Algorithmen. Dies umfasst insbesondere ein Transformieren und/oder Analysieren des optischen Sensorsig nals. Wenn das optische Sensorsignal ein digitales Bild mit einer Anzahl an Bildpunkten (Pi xel) umfasst, umfasst dies beispielsweise ein Entzerren des Bildes, ein Ermitteln von Kon trastwerten zwischen Bildpunkten und/oder Bildbereichen, ein Ermitteln geometrischer For men in dem Bild und dergleichen mehr. Zum Ermitteln des bestimmten Markers können auch Maschinenlernalgorithmen verwendet werden, wie beispielsweise ein auf die Erkennung der Marker in Bildern trainiertes neuronales Netzwerk, vorzugsweise ein CNN (convolutional neural network).
Das Ermitteln der Ist-Position des bestimmten Markers erfolgt in Abhängigkeit des empfan genen Positionssensorsignals und des empfangenen optischen Sensorsignals. Beispielswei se wird auf Basis des optischen Sensorsignals eine aktuelle Relativposition zwischen dem bestimmten Marker und dem Fahrzeug ermittelt. Dies kann zum Beispiel auf Basis strahlen optischer Grundsätze erfolgen. Insbesondere kann von einer vorgegebenen Ist-Größe des Markers und einer auf Basis des optischen Sensorsignals ermittelten scheinbaren Größe des Markers ein Abstand zwischen dem Fahrzeug und dem Marker ermittelt werden. Weiterhin kann beispielsweise auf Basis der Position des Markers in dem optischen Sensorsignal ein Winkel zwischen einer aktuellen Fahrtrichtung oder Ausrichtung des Fahrzeugs zu einer Sichtlinie zu dem Marker ermittelt werden. Auf Basis der von dem Positionssensorsignal be kannten aktuellen Fahrzeugposition lässt sich, beispielsweise durch vektorielle Addition, die Ist-Position des bestimmten Markers ermitteln.
Die Ist-Position und die Soll-Position sind vorzugsweise durch zwei Koordinaten, die sich auf ein vorbestimmtes Koordinatensystem beziehen, festgelegt. Im Folgenden werden die Koor dinaten beispielsweise mit x und y bezeichnet. Die Ist-Position und die Soll-Position können zusätzlich durch eine Orientierungs-Information festgelegt sein. Die Orientierungs- Information gibt beispielsweise eine Ausrichtung für den jeweiligen Marker an, die sich ins besondere auf eine Schwerkraftrichtung bezieht. Die Orientierungs-Information umfasst ins besondere einen Winkel zwischen einer vorbestimmten Vorzugsrichtung des jeweiligen Mar kers und der Schwerkraftrichtung. Man kann auch sagen, dass die Orientierungs-Information angibt, welche Seite des Markers "oben" und welchen Seite "unten" ist.
Die ermittelte Ist-Position des bestimmten Markers wird anschließend mit der Soll-Position des bestimmten Markers in dem Datensatz verglichen. Beispielsweise kann eine Differenz zwischen der Ist-Position und der Soll-Position gebildet werden. Wenn die beiden Position übereinstimmen, ergibt diese Differenz den Wert 0 (null). Je größer die Abweichung der bei den Position ist, umso größer wird auch die Differenz sein. Das Vergleichen kann insbeson dere ein separates Vergleichen der x- und y-Koordinaten der jeweiligen Position umfassen. Dies kann vorteilhaft sein, da hierdurch sofort ableitbar ist, wie die Ist-Position des bestimm ten Markers anzupassen ist, um die Ist-Position mit der Soll-Position in Übereinstimmung zu bringen.
Je nach dem, wie der Vergleich für den bestimmten Marker ausfällt, wird die dem bestimm ten Marker in dem Datensatz zugeordnete Soll-Position bestätigt oder nicht bestätigt. Falls die Soll-Position bestätigt wird, heißt das, dass die Ist-Position des bestimmten Markers hin reichend genau mit der Soll-Position übereinstimmt, so dass eine zuverlässige Orientierung und Navigation auf Basis der Soll-Position für Fahrzeuge gegeben ist. Wenn die Soll-Position nicht bestätigt wird, dann ist entweder die Soll-Position in dem Datensatz anzupassen oder die Ist-Position des bestimmten Markers ist zu verändern.
Es sei angemerkt, dass durch das vorgeschlagene Verfahren auch ermittelt wird, wenn zwei Marker vertauscht angeordnet sind (also ein erster Marker an der Soll-Position eines zweiten Markers angeordnet ist und umgekehrt).
In Ausführungsformen des Verfahrens umfasst dieses zusätzlich ein Ausgeben eines Ver gleichsergebnisses und/oder ein Ausgeben eines Bestätigungsergebnisses.
Das vorgeschlagene Verfahren kann auch als ein Verfahren zum Validieren einer Anordnung mehrerer optisch erfassbarer und eindeutig unterscheidbarer Marker, die innerhalb eines vorbestimmten Bereichs an bestimmten Positionen angeordnet sind, wobei jeder der Marker gemäß einer vorbestimmten Soll-Position anzuordnen ist, bezeichnet werden.
Gemäß einer Ausführungsform des Verfahrens wird der Schritt a) unter autonomer Steue rung durch ein fahrzeugeigenes Assistenzsystem durchgeführt.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst der Schritt b) das Empfan gen von Odometriedaten des Fahrzeugs und/oder das Empfangen eines optischen Sensor signals eines optischen Sensors des Fahrzeugs.
Die Odometriedaten umfassen beispielsweise ein Raddrehzahlsensorsignal eines oder meh rere Räder des Fahrzeugs sowie ein Lenkwinkelsensorsignal eines oder mehrere Lenkwinkel des Fahrzeugs und/oder ein Radwinkelsensorsignal eines oder mehrere Räder des Fahr zeugs.
Das optische Sensorsignal umfasst beispielsweise Bilder einer Kamera, ein Lidar- Sensorsignal und/oder ein Radar-Sensorsignal. Auf Basis des optischen Sensorsignals kann beispielsweise eine VSLAM-Positionierung des Fahrzeugs durchgeführt werden. Hierzu wird vorzugsweise eine digitale Karte des vorbestimmten Bereichs bereitgestellt. Die digitale Kar te umfasst beispielsweise Positionen bestimmter Merkmale des vorbestimmten Bereichs, die auf Basis des optischen Sensorsignals erfassbar sind. Die Positionierung auf Basis des opti schen Sensorsignals kann zur Eichung oder Kalibrierung der odometrisch ermittelten Positi on dienen, da sich bei der Odometrie Fehler mit zunehmender Fahrtstrecke aufsummieren.
In Ausführungsformen umfasst das Verfahren das Empfangen eines vorbestimmten Positi onssensorsignals, das von einer externen Vorrichtung, wie einer Lichtschranke oder einer Kontaktschleife oder dergleichen, empfangen wird, wenn sich das Fahrzeug an einer vorbe stimmten Position befindet. Beispielsweise wird das vorbestimmte Positionssensorsignal empfangen, wenn das Fahrzeug eine Lichtschranke durchfährt. Dies kann zur Eichung und/oder Kalibrierung der aktuellen Fahrzeugposition dienen.
Gemäß einer weiteren Ausführungsform des Verfahrens werden die Schritte b) - d) von ei ner fahrzeugeigenen Steuereinheit durchgeführt, und die Schritte e) und f) werden von einer zu dem Fahrzeug externen Steuereinheit durchgeführt.
Hierbei wird die ermittelte Ist-Position des bestimmten Markers an die externe Steuereinheit übertagen. Dies kann direkt erfolgen, beispielsweise mittels einer drahtlosen Datenverbin dung, wie WLAN oder eine 3G, 4G oder 5G Mobilfunkverbindung. Alternativ können die er mittelten Ist-Positionen zunächst zwischengespeichert werden und nach Abschluss der Fahrt gesammelt an die externe Steuereinheit übertragen werden. Dementsprechend können die Schritte e) und f) direkt ausgeführt werden oder nachträglich nach Abschluss der Fahrt.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst der Schritt d) ferner ein Speichern des ermittelten Markers gemeinsam mit der ermittelten Ist-Position des Markers in einem weiteren Datensatz, und wobei nach dem Abfahren des vorbestimmten Bereichs der weitere Datensatz umfassend alle während des Abfahrens ermittelten Marker von dem Fahr zeug an die externe Steuereinheit übertragen werden. Darunter, dass der ermittelte Marker mit der ermittelten Ist-Position gespeichert wird, wird insbesondere verstanden, dass beispielsweise die Marker-ID mit der Ist-Position gespeichert wird.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst der Schritt d) zusätzlich ein Übertragen des ermittelten Markers gemeinsam mit der ermittelten Ist-Position des Markers an die externe Steuereinheit.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses ein Ermitteln einer aktuellen Fahrzeugposition auf Basis des empfangenen Positionssensorsignals und ein Er mitteln einer Relativposition des Markers zu dem Fahrzeug auf Basis einer Position, Verzer rung und/oder Größe des bestimmten Markers in dem empfangenen optischen Sensorsignal, wobei die Ist-Position des bestimmten Markers auf Basis der ermittelten aktuellen Fahrzeug position und der ermittelten Relativposition ermittelt wird.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst der Schritt d) ein Ermitteln eines Ermittlungsfehlers für die ermittelte Ist-Position, wobei die Schritte e) und f) in Abhän gigkeit des ermittelten Ermittlungsfehlers durchgeführt werden.
Dies hat den Vorteil, dass eine unzuverlässig ermittelte Ist-Position, die beispielsweise einen großen Ermittlungsfehler aufweist, nicht zum Überprüfen der Soll-Position genutzt wird.
Der Ermittlungsfehler ergibt sich beispielsweise aus einem Messfehler des Positionssensor signals und einer daraus folgenden Ungenauigkeit der Positionsbestimmung des Fahrzeugs, sowie aus einer Ungenauigkeit beim Ermitteln einer Relativposition zwischen Fahrzeug und Marker auf Basis des optischen Sensorsignals.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst der Schritt f) das Ermitteln eines Abstands zwischen der Soll-Position und der Ist-Position, und wobei in Schritt f) die Soll-Position bestätigt wird, wenn der Abstand zwischen der Soll-Position und der Ist-Position kleiner oder gleich einem bestimmten Schwellwert ist.
Der Schwellwert kann für unterschiedliche Marker des Systems unterschiedlich festgelegt sein.
Gemäß einer weiteren Ausführungsform des Verfahrens wird die Ist-Position in dem Daten satz als Soll-Position gespeichert, wenn der Abstand zwischen der Soll-Position und der Ist- Position kleiner oder gleich einem bestimmten Schwellwert ist.
Es sei angemerkt, dass der Schwellwert in diesem Fall nicht mit dem Schwellwert überein stimmen muss, der zur Bestätigung der Soll-Position gemäß vorstehender Ausführungsform herangezogen wird. Die beiden Schwellwerte können für eine bestimmten Marker unter schiedliche Werte aufweisen.
Bei dieser Ausführungsform wird die Soll-Position durch die Ist-Position korrigiert, wenn die Soll-Position bestätigt wird. Dies hat den Vorteil, dass die Soll-Position genauer mit der rea len Anordnung der Marker übereinstimmt. Andererseits wird bei einer größeren Abweichung beispielsweise die Anordnung des bestimmten Markers verändert, so dass dieser gemäß der Soll-Position angeordnet ist.
Gemäß einem zweiten Aspekt wird ein Computerprogrammprodukt vorgeschlagen, welches Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen ver anlassen, die Schritte b) - f) des vorstehend beschriebenen Verfahrens auszuführen.
Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder gelie fert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.
Gemäß einem dritten Aspekt wird eine Steuereinrichtung zum Validieren einer Anordnung mehrerer optisch erfassbarer und eindeutig unterscheidbarer Marker, die innerhalb eines vorbestimmten Bereichs an bestimmten Positionen anordenbar sind, wobei jeder der Marker gemäß einer vorbestimmten Soll-Position anzuordnen ist, vorgeschlagen. Die Steuereinrich tung weist auf: eine Empfangseinheit zum Empfangen eines für eine Position eines den vorbestimm ten Bereich mit den an den bestimmten Positionen angeordneten Markern abfahrenden Fahrzeugs indikativen Positionssensorsignals, und zum Empfangen eines optischen Sensor signals einer Umgebung des Fahrzeugs von einer optischen Sensoreinheit des Fahrzeugs, wobei das optische Sensorsignal wenigstens einen bestimmten der mehreren Marker ent hält, eine Ermittlungseinheit zum Ermitteln des in dem empfangenen optischen Sensorsig nal enthaltenen bestimmten Markers und zum Ermitteln einer Ist-Position des bestimmten Markers in Abhängigkeit des empfangenen Positionssensorsignals und des empfangenen optischen Sensorsignals, eine Vergleichseinheit zum Vergleichen der ermittelten Ist-Position des bestimmten Markers mit der vorbestimmten Soll-Position des bestimmten Markers, und eine Bestätigungseinheit zum Bestätigen der Anordnung des bestimmten Markers ge mäß der vorbestimmten Soll-Position in Abhängigkeit des Vergleichs.
Diese Steuereinrichtung ist vorteilhaft zur Verwendung in einem Verfahren gemäß dem ers ten Aspekt ausgebildet. Die für das vorgeschlagene Verfahren beschriebenen Ausführungs formen und Merkmale gelten für die vorgeschlagene Steuereinrichtung entsprechend.
Die jeweilige Einheit der Steuereinrichtung kann hardwaretechnisch und/oder softwaretech nisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einheit zum Beispiel als Computer oder als Mikroprozessor ausgebildet sein. Bei einer soft- waretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als ein Algorithmus, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein. Ferner kann jede der vorliegend genannten Einhei ten auch als Teil eines übergeordneten Steuerungssystems des Fahrzeugs, wie beispiels weise einer zentralen elektronischen Steuereinrichtung und/oder einem Motorsteuergerät (ECU: Engine Control Unit), ausgebildet sein. Ferner können die unterschiedlichen Einheiten der Steuereinrichtung verteilt angeordnet sein, das heißt, sie müssen nicht in einem integrier ten System und/oder an einem Ort angeordnet sein. Beispielsweise sind die Empfangsein heit und die Ermittlungseinheit in oder an einem Fahrzeug angeordnet und die Vergleichs einheit und die Bestätigungseinheit sind in einer Infrastruktur, wie einem Server in einem Rechenzentrum oder dergleichen, angeordnet.
Gemäß einem vierten Aspekt wird ein Fahrzeug mit einer optischen Sensoreinheit zum Er fassen und Ausgeben eines optischen Sensorsignals einer Umgebung des Fahrzeugs und mit einer Steuereinrichtung gemäß dem dritten Aspekt vorgeschlagen.
Das Fahrzeug ist beispielsweise ein Personenkraftwagen oder auch ein Lastkraftwagen. Das Fahrzeug kann auch als ein robotisches Fahrzeug oder ein Roboter ausgebildet sein, das keine Sitzplätze für Nutzer aufweist. Das Fahrzeug umfasst vorzugsweise eine Anzahl an Sensoreinheiten, die zum Erfassen des Fahrzustands des Fahrzeugs und zum Erfassen ei ner Umgebung des Fahrzeugs eingerichtet sind. Beispiele für derartige Sensoreinheiten des Fahrzeugs sind Bildaufnahmeeinrichtungen, wie eine Kamera, ein Radar (engl radio detec- tion and ranging) oder auch ein Lidar (engl light detection and ranging), Ultraschallsensoren, Ortungssensoren, Radwinkelsensoren und/oder Raddrehzahlsensoren. Die Sensoreinheiten sind jeweils zum Ausgeben eines Sensorsignals eingerichtet, beispielsweise an die Steuer einrichtung.
Gemäß einer Ausführungsform des Fahrzeugs weist dieses ein Assistenzsystem auf, das dazu eingerichtet ist, das Fahrzeug zum autonomen Abfahren des vorbestimmten Bereichs mit den an den bestimmten Positionen angeordneten Markern zu steuern. Darunter, dass das Assistenzsystem das Fahrzeug autonom steuert, wird vorliegend insbe sondere verstanden, dass das Fahrzeug ohne menschliche Kontrolle und/oder ohne menschliches Eingreifen den vorbestimmten Bereich abfährt und dabei optische Sensorsig nale der Umgebung mit den Markern erfasst und zugleich Positionssensorsignale erfasst.
Das Assistenzsystem kann beispielsweise Teil der Steuereinrichtung sein.
Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschrie benen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufü gen.
Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Un teransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezug nahme auf die beigelegten Figuren näher erläutert.
Fig. 1 zeigt ein schematisches Beispiel eines Systems mit mehreren Markern;
Fig. 2 zeigt ein Beispiel mit zwei Datensätzen;
Fig. 3 zeigt zwei schematische Diagramme mit einer Anordnung mehrerer Marker;
Fig. 4 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels einer Steu ereinrichtung; und
Fig. 5 zeigt ein schematisches Blockschaltbild eines Verfahrens zum Validieren eines Systems mit mehreren Markern. In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
Fig. 1 zeigt ein schematisches Beispiel eines Systems 100 mit mehreren Markern ID1 - ID4, die in einem vorbestimmten Bereich 200 angeordnet sind. Es sei angemerkt, dass in der Fig. 1 lediglich ein Ausschnitt des vorbestimmten Bereichs 200 gezeigt ist. Die Marker ID1 - ID4 sind beispielhaft als ARUCO-Codes ausgebildet und sind an bestimmten Positionen POS1 - POS4 (siehe Fig. 2) in dem vorbestimmten Bereich 200 angeordnet. Das System 100 um fasst ferner einen Datensatz DATAO (siehe Fig. 2), der für jeden Marker ID1 - ID4 des Sys tems eine Soll-Position P1 - P4 enthält.
Die Marker ID1 - ID4 sind dafür vorgesehen, dass sich Fahrzeuge, die eine autonome Fahr funktion aufweisen, in dem vorbestimmten Bereich 200 orientieren können. Insbesondere kann ein entsprechend ausgestattetes Fahrzeug dazu eingerichtet sein, auf Basis einer Er fassung der Marker ID1 - ID4 innerhalb einer vorbestimmten Fahrspur zu fahren und einen bestimmten Zielpunkt, wie einen Parkplatz oder eine Ausfahrt, in dem vorbestimmten Be reich 200 anzusteuern. Diese Funktion ist nur dann sicher ausführbar, wenn die Marker ID1 - ID4 an ihren vorgesehenen Soll-Positionen P1 - P4 (siehe Fig. 2) angeordnet sind, wes halb die Anordnung der Marker ID1 - ID4 zu überprüfen ist.
Die Validierung des Systems 100 erfolgt in diesem Beispiel durch eine Steuereinrichtung 110 (siehe Fig. 5) in Kombination mit dem Fahrzeug 300. Die Steuereinrichtung 110 umfasst eine Empfangseinheit 112, eine Ermittlungseinheit 114, eine Vergleichseinheit 116 und eine Be stätigungseinheit 118. In diesem Beispiel sind die Empfangseinheit 112 und die Ermittlungs einheit 114 in dem Fahrzeug 300 angeordnet und die Vergleichseinheit 116 und die Bestäti gungseinheit 118 sind in der Infrastruktur angeordnet. In weiteren Ausführungsformen (nicht gezeigt) ist die Steuereinrichtung 110 Bestandteil des Fahrzeugs 300. Das Fahrzeug 300 fährt beispielsweise entlang der Trajektorie TR durch den vorbestimmten Bereich 200. Die Fahrt erfolgt insbesondere autonom. Während der Fahrt erfasst ein Positi onssensor 302, der hier einen Raddrehzahlsensor und einen Radwinkelsensor umfasst, ein Positionssensorsignal, das indikativ für die Position des Fahrzeugs 300 ist. Beispielsweise wird eine Odometrie auf Basis des Positionssensorsignals durchgeführt. Ferner erfasst ein optischer Sensor 304, der beispielsweise als eine Kamera ausgebildet ist, ein optisches Sensorsignal der Umgebung des Fahrzeugs 300. Je nach Position und Ausrichtung des Fahrzeugs 300 sowie dem Erfassungsbereich der Kamera 304 ist in dem optischen Sensor signal einer oder mehrere der Marker ID1 - ID4 enthalten. Die Empfangseinheit 112 der Steuereinrichtung 100 empfängt das Positionssensorsignal und das optische Sensorsignal. Die Ermittlungseinheit 114 ermittelt daraufhin den oder die in dem empfangenen optischen Sensorsignal enthaltenen Marker ID1 - ID4. Beispielsweise ermittelt die Ermittlungseinheit 114 eine Identifikationsnummer des enthaltenen Markers ID1 - ID4. Ferner ermittelt die Er mittlungseinheit 114 eine Ist-Position POS1 - POS4 des enthaltenen Markers ID1 - ID4 in Abhängigkeit des empfangenen Positionssensorsignals und des empfangenen optischen Sensorsignals. Beispielsweise wird auf Basis des optischen Sensorsignals eine aktuelle Re lativposition zwischen dem Marker ID1 - ID4 und dem Fahrzeug 300 ermittelt. Zum Beispiel kann von einer vorgegebenen Ist-Größe des Markers ID1 - ID4 und einer auf Basis des opti schen Sensorsignals ermittelten scheinbaren Größe des Markers ID1 - ID4 ein Abstand zwi schen dem Fahrzeug 300 und dem Marker ID1 - ID4 ermittelt werden. Weiterhin kann bei spielsweise auf Basis der Position des Markers ID1 - ID4 in dem optischen Sensorsignal ein Winkel zwischen einer aktuellen Fahrtrichtung oder Ausrichtung des Fahrzeugs 300 zu einer Sichtlinie zu dem Marker ID1 - ID4 ermittelt werden. Auf Basis der von dem Positions sensorsignal bekannten aktuellen Fahrzeugposition lässt sich, beispielsweise durch vektori elle Addition, die Ist-Position POS1 - POS4 des Markers ID1 - ID4 ermitteln.
Das Fahrzeug 300 fährt den gesamten vorbestimmten Bereich 200 ab und ermittelt wie vor stehend beschrieben für jeden erfassten Marker ID1 - ID4 eine entsprechende Ist-Position POS1 - POS4. Auf diese Weise wird beispielsweise ein Datensatz DATAR (siehe Fig. 2) ermittelt, der für jeden Marker ID1 - ID4 die ermittelte Ist-Position POS1 - POS4 enthält. Die Ermittlungseinheit 114 steht beispielsweise mittels einer drahtlosen Kommunikationsverbin dung mit der Vergleichseinheit 116 in Verbindung, wie durch die beiden Antennen (ohne Be zugszeichen) angedeutet ist.
Der ermittelte Datensatz DATAR wird von der Vergleichseinheit 116 mit dem vorgegebenen Datensatz DATAO, der für jeden Marker ID1 - ID4 des Systems 100 die vorgesehene Soll- Position P1 - P4 umfasst, verglichen. Für den Vergleich wird beispielsweise eine Differenz zwischen der ermittelten Ist-Position POS1 - POS4 und der Soll-Position P1 - P4 für jeden der Marker ID1 - ID4 gebildet. Je größer eine jeweilige Differenz ist, umso größer ist die Ab weichung der jeweiligen Ist-Position POS1 - POS4 von der Soll-Position P1 - P4.
Die jeweilige Position (Soll-Position und Ist-Position) ist vorzugsweise durch zweidimensio nale Koordinaten in einem bestimmten Koordinatensystem gegeben, wie beispielhaft in der Fig. 3 dargestellt ist. Die Fig. 3 zeigt zwei Diagramme, wobei es sich um Beispiele für den Datensatz DATAO mit den Soll-Position P1 - P4 und den Datensatz DATAR mit den ermittel ten Ist-Positionen POS1 - POS4 handelt. In der Fig. 3 ist die jeweilige Position durch zwei Koordinaten x, y festgelegt. Ein jeweiliger Datensatz DATAO, DATAR bildet beispielsweise eine digitale Karte der Anordnung der Marker ID1 - ID4. Optional kann der Datensatz DATAO beispielsweise auch Konturen von Objekten und/oder vorgesehene Fahrspuren ent halten.
Die jeweilige Position P1 - P4, POS1 - POS4 bezieht beispielsweise auf eine vorbestimmte Ecke des jeweiligen Markers ID1 - ID4. Die vorbestimmte Ecke des Markers ID1 - ID4 ist auf Basis des optischen Sensorsignals ermittelbar, so dass die Orientierung des jeweiligen Markers ID1 - ID4 überprüft werden kann. Beispielhaft ist die für den vierten Marker ID4 ge zeigt, dessen ermittelte Ist-Position POS4 sich auf die untere rechte Ecke des Markers ID4 bezieht, was anzeigt, dass dieser Marker ID4 gegenüber der vorgesehenen Anordnung um 90° gedreht angeordnet ist. Wenn die Platzierung des Markers ID4 ansonsten korrekt ist, stimmt beispielsweise der y-Wert der Ist-Position POS4 mit dem y-Wert der Soll-Position P4 überein, während der x-Wert der Ist-Position POS4 von dem x-Wert der Soll-Position P4 ab weicht (um den Betrag einer Marker- Breite).
Auf Basis des Vergleichs durch die Vergleichseinheit 116 bestätigt die Bestätigungseinheit 118 die Soll-Positionen P1 - P4 der Marker ID1 - ID4 des System 100. Wenn die Ist-Position POS1 - POS4 eines jeweiligen Markers hinreichend genau mit der Soll-Position P1 - P4 übereinstimmt, so dass eine zuverlässige Orientierung und Navigation auf Basis der Soll- Position P1 - P4 für Fahrzeuge gegeben ist, wird die Soll-Position P1 - P4 bestätigt. Wenn die Soll-Position P1 - P4 für einen oder mehrere der Marker ID1 - ID4 nicht bestätigt wird, dann ist entweder die Soll-Position P1 - P4 in dem Datensatz DATAO anzupassen oder die Ist-Position POS1 - POS4 der betreffenden Markers ID1 - ID4 ist zu verändern, beispiels weise indem die oder der betreffende Marker ID1 - ID4 verschoben wird.
Fig. 4 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels einer Steuerein richtung 110, die zum Ausführen des anhand der Fig. 5 beschriebenen Verfahrens eingerich tet ist. Die Steuereinrichtung 110 kann ferner zum Ausführen der wie vorstehend anhand der Fig. 1 - 3 beschriebenen Verarbeitung eingerichtet sein.
Die Steuereinrichtung 110 ist zum Validieren einer Anordnung mehrerer optisch erfassbarer und eindeutig unterscheidbarer Marker ID1 - ID4 (siehe Fig. 1 - 3), die innerhalb eines vor bestimmten Bereichs 200 (siehe Fig. 1) an bestimmten Positionen POS1 - POS4 (siehe Fig. 2 oder 3) anordenbar sind, wobei jeder der Marker ID1 - ID4 gemäß einer vorbestimmten Soll-Position P1 - P4 anzuordnen ist, eingerichtet. Die Steuereinrichtung 110 weist eine Empfangseinheit 112 auf, die zum Empfangen eines für eine Position eines den vorbestimm ten Bereich 200 mit den an den bestimmten Positionen POS1 - POS4 angeordneten Mar kern ID1 - ID4 abfahrenden Fahrzeugs 300 indikativen Positionssensorsignals und zum Empfangen eines optischen Sensorsignals einer Umgebung des Fahrzeugs 300 von einer optischen Sensoreinheit 304 des Fahrzeugs 300 eingerichtet, wobei das optische Sensor signal wenigstens einen bestimmten der mehreren Marker ID1 - ID4 enthält. Weiterhin weist die Steuereinrichtung 110 eine Ermittlungseinheit 114 zum Ermitteln des in dem empfange- nen optischen Sensorsignal enthaltenen bestimmten Markers ID1 - ID4 und zum Ermitteln einer Ist-Position POS1 - POS4 des bestimmten Markers ID1 - ID4 in Abhängigkeit des empfangenen Positionssensorsignals und des empfangenen optischen Sensorsignals auf. Ferner umfasst die Steuereinrichtung 110 eine Vergleichseinheit 116 zum Vergleichen der ermittelten Ist-Position POS1 - POS4 des bestimmten Markers ID1 - ID4 mit der vorbe stimmten Soll-Position P1 - P4 des bestimmten Markers ID1 - ID4, und weist eine Bestäti gungseinheit 118 zum Bestätigen der Anordnung des bestimmten Markers ID1 - ID4 gemäß der vorbestimmten Soll-Position P1 - P4 in Abhängigkeit des Vergleichs auf.
Fig. 5 zeigt ein schematisches Blockschaltbild eines Verfahrens zum Validieren eines Sys tems 100 (siehe Fig. 1) mit mehreren Markern ID1 - ID4 (siehe Fig. 1 - 3). Das System 100 umfasst mehrere optisch erfassbare und eindeutig unterscheidbare Marker ID1 - ID4, die innerhalb eines vorbestimmten Bereichs 200 (siehe Fig. 1) an bestimmten Positionen POS1 - POS4 (siehe Fig. 2 oder 3) angeordnet sind, und einen Datensatz DATAO (siehe Fig. 2 oder 3), der jedem der Marker ID1 - ID4 eine Information umfassend eine Soll-Position P1 - P4 zuordnet. In einem ersten Schritt S1 wird der vorbestimmte Bereich 200 mit einem Fahr zeug 300 (siehe Fig. 1) abgefahren. In einem zweiten Schritt S2 wird ein für eine Position des Fahrzeugs 300 indikatives Positionssensorsignals empfangen. In einem dritten Schritt S3 wird ein optisches Sensorsignal einer Umgebung des Fahrzeugs 300 von einer optischen Sensoreinheit 304 des Fahrzeugs 300 empfangen, wobei das optische Sensorsignal wenigs tens einen bestimmten der mehreren Marker ID1 - ID4 enthält. In einem vierten Schritt S4 wird der in dem empfangenen optischen Sensorsignal enthaltenen bestimmte Marker ID1 - ID4 ermittelt und es wird eine Ist-Position POS1 - POS4 des bestimmten Markers ID1 - ID4 in Abhängigkeit des empfangenen Positionssensorsignals und des empfangenen optischen Sensorsignals ermittelt. In einem fünften Schritt S5 wird die ermittelte Ist-Position POS1 - POS4 des bestimmten Markers ID1 - ID4 mit der Soll-Position P1 - P4 des bestimmten Markers ID1 - ID4 in dem Datensatz DATAO verglichen. In einem sechsten Schritt S6 wird die dem bestimmten Marker ID1 - ID4 in dem Datensatz DATAO zugeordnete Soll-Position P1 - P4 in Abhängigkeit des Vergleichs bestätigt. Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar.
BEZUGSZEICHENLISTE
100 System 110 Steuereinrichtung 112 Empfangseinheit
114 Ermittlungseinheit 116 Vergleichseinheit 118 Bestätigungseinheit 200 vorbestimmter Bereich 300 Fahrzeug
302 Positionssensor 304 optischer Sensor
DATAO Datensatz DATAR ermittelte Daten ID1 - ID5 Marker P1 - P4 Soll-Position POS1 - POS4 Ist-Position S1 - S6 Verfahrensschritte TR Trajektorie x Koordinate y Koordinate

Claims

PATENTANSPRÜCHE
1. Verfahren zum Validieren eines Systems (100) umfassend mehrere optisch erfassbare und eindeutig unterscheidbare Marker (ID1 - ID4), die innerhalb eines vorbestimmten Be reichs (200) an bestimmten Positionen (POS1 - POS4) angeordnet sind, und einen Daten satz (DATAO), der jedem der Marker (ID1 - ID4) eine Information umfassend eine Soll- Position (P1 - P4) zuordnet, das Verfahren aufweisend die Schritte: a) Abfahren (S1) des vorbestimmten Bereichs (200) mit einem Fahrzeug (300), b) Empfangen (S2) eines für eine Position des Fahrzeugs (300) indikativen Positions sensorsignals, c) Empfangen (S3) eines optischen Sensorsignals einer Umgebung des Fahrzeugs (300) von einer optischen Sensoreinheit (304) des Fahrzeugs (300), wobei das optische Sensorsignal wenigstens einen bestimmten der mehreren Marker (ID1 - ID4) enthält, d) Ermitteln (S4) des in dem empfangenen optischen Sensorsignal enthaltenen be stimmten Markers (ID1 - ID4) und Ermitteln einer Ist-Position (POS1 - POS4) des bestimm ten Markers (ID1 - ID4) in Abhängigkeit des empfangenen Positionssensorsignals und des empfangenen optischen Sensorsignals, e) Vergleichen (S5) der ermittelten Ist-Position (POS1 - POS4) des bestimmten Mar kers (ID1 - ID4) mit der Soll-Position (P1 - P4) des bestimmten Markers (ID1 - ID4) in dem Datensatz (DATAO), und f) Bestätigen (S6) der dem bestimmten Marker (ID1 - ID4) in dem Datensatz (DATAO) zugeordneten Soll-Position (P1 - P4) in Abhängigkeit des Vergleichs.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der Schritt a) unter auto nomer Steuerung durch ein fahrzeugeigenes Assistenzsystem durchgeführt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Schritt b) das Empfangen von Odometriedaten des Fahrzeugs (300) und/oder das Empfangen eines opti schen Sensorsignals eines optischen Sensors (304) des Fahrzeugs (300) umfasst.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Schritte b) - d) von einer fahrzeugeigenen Steuereinheit durchgeführt werden, und dass die Schritte e) und f) von einer zu dem Fahrzeug (300) externen Steuereinheit durchgeführt werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Schritt d) ferner ein Speichern des ermittelten Markers (ID1 - ID4) gemeinsam mit der ermittelten Ist-Position (POS1 - POS4) des Markers (ID1 - ID4) in einem weiteren Datensatz (DATAR), und wobei nach dem Abfahren des vorbestimmten Bereichs (200) der weitere Datensatz (DATAR) um- fassend alle während des Abfahrens ermittelten Marker (ID1 - ID4) von dem Fahrzeug (300) an die externe Steuereinheit übertragen werden.
6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Schritt d) zusätzlich ein Übertragen des ermittelten Markers (ID1 - ID4) gemeinsam mit der ermittelten Ist-Position (POS1 - POS4) des Markers (ID1 - ID4) an die externe Steuereinheit umfasst.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt d) ein Ermitteln einer aktuellen Fahrzeugposition auf Basis des empfangenen Po sitionssensorsignals und ein Ermitteln einer Relativposition des bestimmten Markers (ID1 - ID4) zu dem Fahrzeug (300) auf Basis einer Position, Verzerrung und/oder Größe des be stimmten Markers (ID1 - ID4) in dem empfangenen optischen Sensorsignal umfasst, wobei die Ist-Position (POS1 - POS4) des bestimmten Markers (ID1 - ID4) auf Basis der ermittel ten aktuellen Fahrzeugposition und der ermittelten Relativposition ermittelt wird.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt d) ein Ermitteln eines Ermittlungsfehlers für die ermittelte Ist-Position (POS1 - POS4) umfasst, und wobei die Schritte e) und f) in Abhängigkeit des ermittelten Ermittlungs fehlers durchgeführt werden.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt f) das Ermitteln eines Abstands zwischen der Soll-Position (P1 - P4) und der Ist- Position (POS1 - POS4) umfasst, und wobei in Schritt f) die Soll-Position (P1 - P4) bestätigt wird, wenn der Abstand zwischen der Soll-Position (P1 - P4) und der Ist-Position (POS1 - POS4) kleiner oder gleich einem bestimmten Schwellwert ist.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Ist-Position (POS1 - POS4) in dem Datensatz (DO) als Soll-Position (P1 - P4) gespeichert wird, wenn der Ab stand zwischen der Soll-Position (P1 - P4) und der Ist-Position (POS1 - POS4) kleiner oder gleich einem bestimmten Schwellwert ist.
11. Computerprogrammprodukt, welches Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, die Schritte b) -f) des Anspruchs 1 auszuführen.
12. Steuereinrichtung (110) zum Validieren einer Anordnung mehrerer optisch erfassbarer und eindeutig unterscheidbarer Marker (ID1 - ID4), die innerhalb eines vorbestimmten Be reichs (200) an bestimmten Positionen (POS1 - POS4) anordenbar sind, wobei jeder der Marker (ID1 - ID4) gemäß einer vorbestimmten Soll-Position (P1 - P4) anzuordnen ist, die Steuereinrichtung (110) aufweisend: eine Empfangseinheit (112) zum Empfangen eines für eine Position eines den vorbe stimmten Bereich (200) mit den an den bestimmten Positionen (POS1 - POS4) angeordne ten Markern (ID1 - ID4) abfahrenden Fahrzeugs (300) indikativen Positionssensorsignals, und zum Empfangen eines optischen Sensorsignals einer Umgebung des Fahrzeugs (300) von einer optischen Sensoreinheit (304) des Fahrzeugs (300), wobei das optische Sensor signal wenigstens einen bestimmten der mehreren Marker (ID1 - ID4) enthält, eine Ermittlungseinheit (114) zum Ermitteln des in dem empfangenen optischen Sen sorsignal enthaltenen bestimmten Markers (ID1 - ID4) und zum Ermitteln einer Ist-Position (POS1 - POS4) des bestimmten Markers (ID1 - ID4) in Abhängigkeit des empfangenen Po sitionssensorsignals und des empfangenen optischen Sensorsignals, eine Vergleichseinheit (116) zum Vergleichen der ermittelten Ist-Position (POS1 - POS4) des bestimmten Markers (ID1 - ID4) mit der vorbestimmten Soll-Position (P1 - P4) des bestimmten Markers (ID1 - ID4), und eine Bestätigungseinheit (118) zum Bestätigen der Anordnung des bestimmten Mar- kers (ID1 - ID4) gemäß der vorbestimmten Soll-Position (P1 - P4) in Abhängigkeit des Ver gleichs.
13. Fahrzeug (300) mit einer optischen Sensoreinheit (304) zum Erfassen und Ausgeben eines optischen Sensorsignals einer Umgebung des Fahrzeugs (300) und mit einer Steuer- einrichtung (110) nach Anspruch 12.
14. Fahrzeug nach Anspruch 13, gekennzeichnet durch ein Assistenzsystem, das dazu eingerichtet ist, das Fahrzeug (300) zum autonomen Abfahren des vorbestimmten Bereichs (200) mit den an den bestimmten Positionen (POS1 - POS4) angeordneten Markern (ID1 - ID4) zu steuern.
PCT/EP2022/063132 2021-05-19 2022-05-16 Verfahren, computerprogrammprodukt, steuereinrichtung und fahrzeug WO2022243218A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021112923.0A DE102021112923A1 (de) 2021-05-19 2021-05-19 Verfahren, computerprogrammprodukt, steuereinrichtung und fahrzeug
DE102021112923.0 2021-05-19

Publications (1)

Publication Number Publication Date
WO2022243218A1 true WO2022243218A1 (de) 2022-11-24

Family

ID=82016281

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/063132 WO2022243218A1 (de) 2021-05-19 2022-05-16 Verfahren, computerprogrammprodukt, steuereinrichtung und fahrzeug

Country Status (2)

Country Link
DE (1) DE102021112923A1 (de)
WO (1) WO2022243218A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022131455A1 (de) 2022-11-29 2024-05-29 Valeo Schalter Und Sensoren Gmbh Verfahren und System zum Bereitstellen eines automatischen Parkdiensts für ein Kraftfahrzeug in einer Parkumgebung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016215501A1 (de) * 2016-08-18 2018-02-22 Robert Bosch Gmbh Verfahren und Vorrichtung zur Hinderniserkennung durch Landmarken
US20190294898A1 (en) * 2018-03-23 2019-09-26 Veoneer Us Inc. Localization by vision
EP3689695A1 (de) * 2017-11-17 2020-08-05 Aisin Aw Co., Ltd. Fahrzeugpositionsschätzvorrichtung und fahrzeugsteuerungsvorrichtung

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011082477A1 (de) 2011-09-12 2013-03-14 Robert Bosch Gmbh Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
DE102014217847A1 (de) 2014-09-08 2016-03-10 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem, Verkehrstelematiksystem und Verfahren zum Aktualisieren einer digitalen Karte

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016215501A1 (de) * 2016-08-18 2018-02-22 Robert Bosch Gmbh Verfahren und Vorrichtung zur Hinderniserkennung durch Landmarken
EP3689695A1 (de) * 2017-11-17 2020-08-05 Aisin Aw Co., Ltd. Fahrzeugpositionsschätzvorrichtung und fahrzeugsteuerungsvorrichtung
US20190294898A1 (en) * 2018-03-23 2019-09-26 Veoneer Us Inc. Localization by vision

Also Published As

Publication number Publication date
DE102021112923A1 (de) 2022-11-24

Similar Documents

Publication Publication Date Title
DE102016219455B4 (de) Verfahren und aktive Infrastruktur zur Überprüfung einer Umfelderfassung eines Kraftfahrzeugs
EP2568310A2 (de) Verfahren, System sowie Vorrichtung zur Lokalisation eines Fahrzeugs relativ zu einem vordefinierten Bezugssystem
EP3475921B1 (de) Verfahren und fahrzeugsteuersystem zum erzeugen von abbildungen eines umfeldmodells und entsprechendes fahrzeug
DE102018203941A1 (de) Automatisches Kalibrieren eines Fahrzeug-Radarsensors
WO2022243218A1 (de) Verfahren, computerprogrammprodukt, steuereinrichtung und fahrzeug
EP2202601A2 (de) Navigation für insbesondere unbemannte Fahrzeuge
EP4175866A1 (de) Verfahren zum ermitteln einer ersatztrajektorie, computerprogrammprodukt, parkassistenzsystem und fahrzeug
EP3599115A1 (de) Verfahren und system zum automatischen erkennen eines ankuppelmanövers eines kraftfahrzeugs an einen anhänger
DE102021104898A1 (de) Erneuter versuch der automatischen ausrichtung in einem automatischen kupplungsvorgang
WO2023135196A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem und verfahren zum betreiben einer produktionsstätte
WO2023041797A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem und fahrzeug
DE102021109417A1 (de) Verfahren, computerprogrammprodukt, parkassistenzsystem und fahrzeug
DE102017216352A1 (de) Verfahren zum Positionieren und Entfernen einer Anhängekupplung, Anordnung zum Positionieren einer Anhängekupplung und Computerprogrammprodukt
EP4176424A1 (de) Ampelspurzuordnung aus schwarmdaten
DE102021117613A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt und parkassistenzsystem
DE102021110287A1 (de) Verfahren und System zum automatisierten Kalibrieren von Sensoren
DE102021114624A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem, verfahren zum betreiben eines fahrerassistenzsystems, fahrerassistenzsystem, fahrzeug und anordnung
DE102021111736A1 (de) Verfahren, computerprogrammprodukt, parkassistenzsystem und fahrzeug
DE102022133658A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem, fahrzeug mit einem parkassistenzsystem und verfahren zum betreiben einer produktionsstätte
DE102022111269A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem und fahrzeug mit einem parkassistenzsystem
DE102020132972A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem und fahrzeug
DE112016005235T5 (de) Verfahren und system zum folgen einer spur eines fahrzeugs entlang einer strasse
DE102015007657A1 (de) Verfahren zur automatischen Steuerung eines Fahrzeugs
DE102021114626A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem, verfahren zum betreiben eines fahrerassistenzsystems, fahrerassistenzsystem, fahrzeug und anordnung
EP4158435A1 (de) Verfahren zum automatisierten betrieb eines kraftfahrzeugs und mobile signalübertragungsvorrichtung zur drahtlosen signalübertragung mit einem automatisiert betreibbaren kraftfahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22729184

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22729184

Country of ref document: EP

Kind code of ref document: A1