DE102022206123A1 - Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes, Computerprogramm, Vorrichtung und Fahrzeug - Google Patents

Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes, Computerprogramm, Vorrichtung und Fahrzeug Download PDF

Info

Publication number
DE102022206123A1
DE102022206123A1 DE102022206123.3A DE102022206123A DE102022206123A1 DE 102022206123 A1 DE102022206123 A1 DE 102022206123A1 DE 102022206123 A DE102022206123 A DE 102022206123A DE 102022206123 A1 DE102022206123 A1 DE 102022206123A1
Authority
DE
Germany
Prior art keywords
dynamic object
depending
current
vehicle
reflection origin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022206123.3A
Other languages
English (en)
Inventor
Jonas Landsgesell
Michael Tchorzewski
Georg Rempfer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022206123.3A priority Critical patent/DE102022206123A1/de
Priority to EP23177592.5A priority patent/EP4296715A1/de
Priority to US18/334,910 priority patent/US20240010195A1/en
Priority to JP2023099832A priority patent/JP2024000534A/ja
Priority to KR1020230078672A priority patent/KR20230174730A/ko
Priority to CN202310737588.8A priority patent/CN117269967A/zh
Publication of DE102022206123A1 publication Critical patent/DE102022206123A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • B60W10/08Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of electric propulsion units, e.g. motors or generators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • G01S15/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector wherein transceivers are operated, either sequentially or simultaneously, both in bi-static and in mono-static mode, e.g. cross-echo mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • G01S2015/465Indirect determination of position data by Trilateration, i.e. two transducers determine separately the distance to a target, whereby with the knowledge of the baseline length, i.e. the distance between the transducers, the position data of the target is determined
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • G01S2015/938Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details in the bumper area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes (1) im Umfeld (90) eines Fahrzeugs (100), wobei das Fahrzeug (100) zwei Ultraschallsensoren (111) und eine Fahrzeugkamera (121) aufweist, umfassend wenigstens eine Erfassung (210) von Sensordaten mittels der zwei Ultraschallsensoren (111); eine Ermittlung (220) einer aktuellen Reflexionsursprungsposition eines statischen oder dynamischen Objektes (1, 50, 51) in Abhängigkeit der erfassten Sensordaten; eine Erfassung (230) wenigstens eines Kamerabildes mittels der Fahrzeugkamera (121); eine Erkennung (240) des dynamischen Objektes (1) in Abhängigkeit des wenigstens einen erfassten Kamerabildes und eine Ermittlung (250) einer aktuellen Schätzposition des erkannten dynamischen Objektes (1) relativ zum Fahrzeug (100) in Abhängigkeit des erfassten Kamerabildes; wobei, wenn ein Positionsabstand zwischen der ermittelten Schätzposition des erkannten dynamischen Objektes (1) und der ermittelten Reflexionsursprungsposition kleiner oder gleich einem Distanzschwellenwert ist, eine Klassifikation (270) der aktuellen Reflexionsursprungsposition in Abhängigkeit der zur Ermittlung der Reflexionsursprungsposition zugrundeliegenden Sensordaten als zu dem erkannten dynamischen Objekt (1) zugehörig erfolgt; und die angenäherte Objektposition des dynamischen Objektes (1) in Abhängigkeit der als dem dynamischen Objekt (1) zugehörig klassifizierten Reflexionsursprungspositionen ermittelt wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes im Umfeld eines Fahrzeugs, welches zwei Ultraschallsensoren und mindestens eine Kamera aufweist. Die Erfindung betrifft auch ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, die Schritte des erfindungsgemäßen Verfahrens auszuführen. Die Erfindung betrifft darüber hinaus eine Vorrichtung, insbesondere eine zentrale oder zonale Recheneinheit oder ein Steuergerät für ein Fahrzeug, aufweisend eine Recheneinheit, die so konfiguriert ist, dass sie die Schritte des erfindungsgemäßen Verfahrens ausführt. Außerdem betrifft die Erfindung ein Fahrzeug mit dieser Vorrichtung.
  • Stand der Technik
  • Ein Parkpilotsystem für ein Fahrzeug umfasst typischerweise mehrere Ultraschallsensoren und eine Auswerteeinheit, die die Daten der Sensoren erfasst, verarbeitet und Warnungen über mögliche Hindernisse ausgibt. Zusätzlich ist in Parkpilotsystemen eine Verwendung von Kameradaten beziehungsweise Kamerabildern bekannt, wodurch beispielsweise statische und/oder dynamische Objekte in der Fahrzeugumgebung basierend auf Bilddaten durch angelernte maschinelle Erkennungsverfahren erkannt und beispielsweise für Notbremsassistenten weiterverarbeitet und/oder eine Visualisierung der Umgebung des Fahrzeugs für den Fahrer durch Erzeugung einer Surround View - Ansicht oder einer Top Down - Ansicht mit Overlays beziehungsweise Einblendungen zusätzlicher Informationen erzeugt werden. Die erfassten Kamerabilder können zu diesen Zwecken beispielsweise entzerrt, aufbereitet und transformiert werden, insbesondere mittels einer zentralen Recheneinheit, mittels einer zonalen Recheneinheit oder mittels eines Steuergeräts.
  • Die Ultraschallsensoren eines Parkpilotsystems werden üblicherweise an den vorderen und hinteren Stoßdämpfern eines Fahrzeugs zur Ermittlung von Abstandsdaten zwischen dem Fahrzeug und Objekten in der Umgebung des Fahrzeugs jeweils mehrere Ultraschallsensoren über die gesamte Fahrzeugbreite angeordnet. Die Ultraschallsensoren sind typischerweise dazu eingerichtet, ein Ultraschallsignal auszusenden. Dieses ausgesendete Ultraschallsignal wird an Hindernissen reflektiert. Das reflektierte Ultraschallsignal wird von den Ultraschallsensoren wieder als Echosignal empfangen und aus der Laufzeit ein Abstand zum Hindernis berechnet. Die Ermittlung des Abstandes erfolgt im Allgemeinen in Abhängigkeit einer Laufzeit eines direkten und/oder indirekten Echosignals beziehungsweise eines direkten und/oder indirekten reflektierte Ultraschallsignals beziehungsweise Reflexionssignals zu einem ausgesendeten Ultraschallsignal. Die Bestimmung des Abstands erfolgt typischerweise mittels eines Sensor-ASIC, welcher in einem Gehäuse des Ultraschallsensors angeordnet ist. Die Sensordaten eines Ultraschallsensors repräsentieren oder umfassen somit beispielsweise das reflektierte Ultraschallsignal beziehungsweise das empfangene Echosignal und/oder den berechneten Abstand sowie optionale Eigenschaften des empfangenen Echosignals, insbesondere relativ zum ausgesendeten Ultraschallsignal. Eine Reflexionsursprungsposition kann typischerweise gemäß dem Trilaterationsprinzips in Abhängigkeit wenigstens eines direkten und eines indirekten empfangenen Echosignals und/oder in Abhängigkeit wenigstens zweier direkter oder wenigstens zweier indirekter empfangenen Echosignale ermittelt werden. Das Trilaterationsprinzip setzt beispielsweise voraus, dass der zu einem aussendenden Ultraschallsensor rechts und/oder links benachbarte Ultraschallsensor dazu eingerichtet ist, ein Kreuzecho beziehungsweise das empfangene Echosignal beziehungsweise das indirekte Reflexionssignal zu dem ausgesendeten Ultraschallsignal zu empfangen. Die Bestimmung der Reflexionsursprungsposition erfolgt vorzugsweise mittels einer Recheneinheit, beispielsweise mittels eines Mikrocontrollers, welche beispielsweise im Steuergerät oder in der zonalen oder zentralen Recheneinheit angeordnet ist, wobei diese Recheneinheit, vorzugsweise ein Prozessor, vorteilhafterweise Sensordaten mehrerer, insbesondere benachbarter, Ultraschallsensoren erfasst und verarbeitet.
  • Das Dokument DE 10 2010 045 657 A1 offenbart ein Umfeld-Überwachungssystem für ein Fahrzeug, wobei das Umfeld-Überwachungssystem aufweist: mindestens zwei Abstandssensoren zur Abstandserkennung durch Laufzeitmessung von Detektionssignalen.
  • Das Dokument DE 10 2019 205 565 A1 offenbart ein Verfahren zum Bewerten einer Objekthöhe anhand von empfangenen Ultraschallsignalen.
  • Die Schrift DE 10 2018 216 790 A1 offenbart ein Verfahren zur Bewertung einer Auswirkung eines Objektes im Umfeld eines Fortbewegungsmittels auf ein Fahrmanöver des Fortbewegungsmittels.
  • Es ist bekannt, dass die Position von erkannten Objekten basierend auf wenigstens einem Kamerabild abgeschätzt werden kann, beispielsweise die Position von einem Fußgänger, wobei beispielsweise eine Fußpunktbestimmung des Objektes erfolgt. Diese Positionsabschätzung für Fußgänger funktioniert aber z.B. nicht, wenn sich die Objekte in unmittelbarer Nähe einer Fahrzeugkamera befinden, da dann die Objekte nicht mehr vollständig im Kamerabild erfasst werden können. In Parkpilotsystemen können mehrere Fahrzeugkameras mit Weitwinkelobjektiven verwendet und eine Surround View - Ansicht oder eine Top Down - Ansicht für den Fahrer mittels einer Anzeigevorrichtung angezeigt werden. Diese Weitwinkelkameras sind prinzipiell besser dazu geeignet naheliegende Objekte zu erkennen, dennoch kann die kamerabasierte Positionsabschätzung für Objekte im Nahbereich des Fahrzeugs versagen.
  • Der Kalman-Filter dient zur iterativen Schätzung von Zustandsparametern eines Systems basierend auf fehlerbehafteten Messungen, wobei die Fehler der Messungen reduziert werden. Die Verwendung ist zu Auswertung von Radarsignalen oder GNSS-Daten zur Positionsbestimmung sich bewegender Objekte bekannt. Dabei besteht das Problem der Assoziation von Messungen zu einem Track des bewegten Objektes. Das heißt, wenn falsche Messungen in einen Track des Objektes assoziiert werden, resultiert ein relativ großer Fehler bezüglich der bestimmten Position und weiteren Auswertungen. Beispielsweise können bei einem typischen Parkpilotsystem Fußgänger und benachbarte Bordsteine häufig nicht unterschieden werden, wodurch die Positionsbestimmung und Bewegungsschätzung für einen Fußgänger ungenau wird.
  • Die Aufgabe der vorliegenden Erfindung ist es, eine Ermittlung einer Objektposition eines dynamischen Objektes im Umfeld eines Fahrzeuges zu verbessern, insbesondere bezüglich einer kontinuierlichen Verfolgung eines Fußgängers als dynamisches Objekt beziehungsweise dessen Tracking im Nahbereich des Fahrzeugs.
  • Offenbarung der Erfindung
  • Die vorstehende Aufgabe wird erfindungsgemäß entsprechend der unabhängigen Ansprüche 1, 12, 13 oder 15 gelöst.
  • Die Erfindung betrifft ein Verfahren zur Ermittlung einer näherungsweise tatsächlichen beziehungsweise angenäherten Objektposition eines dynamischen Objektes im Umfeld eines Fahrzeugs. Das Fahrzeug weist mindestens zwei Ultraschallsensoren und mindestens eine Fahrzeugkamera auf. Das Verfahren umfasst eine Erfassung von Sensordaten mittels der wenigstens zwei Ultraschallsensoren des Fahrzeugs. Die Erfassung der Sensordaten erfolgt insbesondere kontinuierlich. Die Sensordaten repräsentieren insbesondere wenigstens ein erfasstes Echosignal zu einem ausgesendeten Ultraschallsignal zwischen dem Fahrzeug und einem Objekt in der Umgebung des Fahrzeugs sowie vorzugsweise einen Abstand zwischen dem Fahrzeug und dem Objekt sowie optional wenigstens eine Eigenschaft des empfangenen Echosignals. Die Eigenschaft des erfassten Echosignals basiert insbesondere auf einer Auswertung des erfassten Echosignals und repräsentiert vorteilhafterweise eine Wahrscheinlichkeit für das Vorliegen eines dynamischen Objektes. Die Auswertung des Echosignals zur Bestimmung einer Wahrscheinlichkeit für das Vorliegen eines dynamischen Objektes ist ein bevorzugter optionaler Verfahrensschritt. Anschließend wird eine aktuelle Reflexionsursprungsposition eines statischen oder dynamischen Objektes zumindest in Abhängigkeit der erfassten Sensordaten der wenigstens zwei Ultraschallsensoren des Fahrzeugs ermittelt, insbesondere durch ein Trilaterationsverfahren. Die Ermittlung der aktuellen Reflexionsursprungsposition erfolgt insbesondere kontinuierlich basierend auf den aktuell erfassten Sensordaten der wenigstens zwei Ultraschallsensoren des Fahrzeugs. In einem weiteren Verfahrensschritt wird wenigstens ein Kamerabild mittels der Fahrzeugkamera erfasst, insbesondere erfolgt eine kontinuierliche Erfassung eines Kamerabildes mittels der Fahrzeugkamera. Vorzugsweise wird demnach eine Abfolge von Kamerabildern mittels der Fahrzeugkamera erfasst. Anschließend wird das dynamische Objekt in Abhängigkeit des wenigstens einen erfassten Kamerabildes durch wenigstens ein (erstes) angelerntes maschinelles Erkennungsverfahren erkannt, wobei das angelernte maschinelles Erkennungsverfahren vorzugsweise ein trainiertes neuronales Netz ist. Beispielsweise ist das erkannte dynamische Objekt ein anderes bewegtes oder unbewegtes Fremdfahrzeug, ein stehender oder laufender Fußgänger, ein Fahrradfahrer oder ein Tier, beispielsweise ein Hund oder eine Katze. Danach erfolgt eine Ermittlung einer aktuellen Schätzposition des erkannten Objektes relativ zum Fahrzeug in Abhängigkeit des wenigstens einen erfassten Kamerabildes. Es kann vorgesehen sein, dass diese Schätzposition zusätzlich mittels einer Bewegungsgleichung ermittelt wird, beispielsweise, wenn ein Fußgänger als dynamisches Objekt in dem aktuellen Bild nicht mehr erkannt werden kann, da er dieses zumindest teilweise verdeckt. Die ermittelte aktuelle Schätzposition kann alternativ oder zusätzlich durch eine Fußpunkt-Ermittlung oder durch ein anderes angelerntes maschinelles Erkennungsverfahren, insbesondere ein trainiertes neuronales Netz, und/oder in Abhängigkeit einer Bewegungsschätzung des erkannten Objektes bestimmt werden. Die aktuelle Schätzposition verändert sich insbesondere laufend im zeitlichen Verlauf, da das dynamische Objekt beweglich ist. Die Bewegungsschätzung des erkannten Objektes kann vorteilhafterweise basierend auf einer Änderung einer Größe einer Objektbox zu dem erkannten Objekt und einer Fußpunktbestimmung des erkannten Objektes in zeitlich nacheinander erfassten Kamerabildern erfolgen. Falls in einem anschließenden Verfahrensschritt erkannt wird, dass ein Positionsabstand zwischen der aktuellen Schätzposition des erkannten dynamischen Objektes in der Umgebung des Fahrzeug, insbesondere relativ zum Fahrzeug, und der aktuellen Reflexionsursprungsposition kleiner oder gleich einem Distanzschwellenwert ist, wird die aktuelle Reflexionsursprungsposition in Abhängigkeit der zur Ermittlung der aktuellen Reflexionsursprungsposition zugrundeliegenden Sensordaten und/oder insbesondere in Abhängigkeit der wenigstens einen Eigenschaft des Echosignals, als zu dem erkannten dynamischen Objekt zugehörig klassifiziert, wobei diese Eigenschaft des Echosignals optional in Abhängigkeit der Sensordaten beziehungsweise des Echosignals ermittelt werden kann. Die Klassifizierung erfolgt bevorzugt in Abhängigkeit einer Amplitude des zugrundeliegenden erfassten Echosignals der Sensordaten und/oder in Abhängigkeit eines Korrelationskoeffizienten zwischen dem erfassten Echosignal und dem ausgesendeten Ultraschallsignal als jeweilige Eigenschaft des erfassten Echosignals der erfassten Sensordaten. Die Sensordaten können diese Eigenschaft umfassen beziehungsweise repräsentieren, wenn eine Recheneinheit des Ultraschallsensors die Eigenschaft in Abhängigkeit des Echosignals und insbesondere des ausgesendeten Ultraschallsignals ermittelt hat und diese wenigstens eine ermittelte Eigenschaft in den Sensordaten bereitgestellt wird. Alternativ oder zusätzlich kann mindestens eine Eigenschaft des Echosignals auch im Verfahren in Abhängigkeit der erfassten Sensordaten ermittelt werden. Vorzugsweise wird mittels eines zweiten angelernten maschinellen Erkennungsverfahrens, insbesondere eines zweiten neuronalen Netzes, basierend auf mindestens zwei Eigenschaften des Echosignals erkannt, ob die Reflexionsursprungsposition als dem dynamischen Objekt zugehörig klassifiziert werden kann oder nicht. Anschließend wird die angenäherte Objektposition des dynamischen Objektes in Abhängigkeit der als dem dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen, insbesondere durch einen Kalman-Filter, ermittelt. Diese Ermittlung der angenäherten Objektposition des dynamischen Objektes wird insbesondere kontinuierlich durchgeführt. Durch die Erfindung resultiert der Vorteil, dass im Nahbereich des Fahrzeugs eine genaue angenäherte Objektposition des basierend auf Kamerabildern erkannten dynamischen Objektes in Abhängigkeit von Ultraschallmessungen bestimmt werden kann. Die Ultraschallsensoren liefern im Nahbereich des Fahrzeugs sehr genaue Messwerte, und insbesondere sind die Kamerabilder im Nahbereich des Fahrzeugs teilweise nur schwer auswertbar. Des Weiteren wird die Zuordnung beziehungsweise Assoziation der bestimmten Reflexionsursprungspositionen zu dem dynamischen Objekten verbessert, da Messwerte zu statischen Objekten, beispielsweise Bordsteinkanten, Bepflanzungen, Pfosten, oder ähnlichem nicht berücksichtigt werden. Besonders vorteilhaft ist, dass auch angenäherte Objektpositionen von Fußgängern, welche sich nah am Fahrzeug befinden, d.h. z.B. in einer Entfernung kleiner oder gleich 2 Metern, sehr genau bestimmt werden können, was beispielsweise für Einparkvorgänge auf Parkplätzen relevant ist, da diese Fußgängerposition nicht mehr genau kamerabasiert abgeschätzt werden können, da das Kamerabild die Fußgänger nicht vollständig erfassen kann, insbesondere nicht die Beine und Füße.
  • In einer optionalen Ausgestaltung der Erfindung erfolgt die Klassifikation der aktuellen Reflexionsursprungsposition als dem erkannten dynamischen Objekt zugehörig zusätzlich in Abhängigkeit der zugrundeliegenden Sensordaten der während einer vorgegebenen Zeitspanne vor dem aktuellen Zeitpunkt in einer Umgebung der aktuellen Reflexionsursprungsposition liegenden als dem erkannten dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen, wobei die vorgegebenen Zeitspanne beispielsweise in einem Bereich zwischen 10 Millisekunden und 3 Sekunden liegt. Mit anderen Worten wird bei der Klassifikation berücksichtigt, ob die zugrundeliegenden Sensordaten zu dem erkannten dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen in der Umgebung der aktuellen Reflexionsursprungsposition auf eine Wahrscheinlichkeit der Zugehörigkeit der aktuellen Reflexionsursprungsposition zu dem dynamischen Objekt hindeuten. Diese Klassifikation kann vorteilhafterweise durch ein weiteres angelerntes maschinelles Erkennungsverfahren erfolgen. Alternativ oder zusätzlich kann die aktuelle Reflexionsursprungsposition insbesondere den vorher zu dem erkannten dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen basierend auf einer ähnlichen Eigenschaft des Echosignals der Sensordaten zugeordnet werden. Alternativ oder zusätzlich kann die aktuelle Reflexionsursprungsposition insbesondere basierend auf einer Plausibilität der zeitlich veränderten Lage der vorher zu dem erkannten dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen als dem erkannten dynamischen Objekt zugehörig klassifizierten werden oder nicht. Da die Informationen der als dem dynamischen Objekt zugehörig klassifizierten ermittelten Reflexionsursprungspositionen aus der Umgebung zu der ermittelten aktuelle Reflexionsursprungsposition berücksichtigt werden, resultiert der Vorteil, dass die aktuelle Reflexionsursprungsposition genauer als zu dem erkannten dynamischen Objekt zugehörig klassifiziert werden kann. Insbesondere können in dieser Ausgestaltung ermittelte aktuelle Reflexionsursprungsposition verbessert als zu statischen oder anderen dynamischen Objekten zugehörig klassifiziert werden, d.h. als nicht zu dem erkannten dynamischen Objekt zugehörig klassifiziert werden. Durch die Ausgestaltung erfolgt somit die Assoziation der Reflexionsursprungsposition zum dynamischen Objekt zuverlässiger, wodurch die Ermittlung der angenäherten Objektposition des dynamischen Objektes genauer wird.
  • In einer Weiterführung der vorherigen optionalen Ausgestaltung umfasst die Umgebung der aktuellen Reflexionsursprungsposition diejenigen dem dynamischen Objekt zugeordneten beziehungsweise als dem dynamischen Objekt zugehörig klassifizierte Reflexionsursprungspositionen, welche einen Abstand zu der aktuellen Reflexionsursprungsposition kleiner oder gleich einem Abstandsschwellenwert aufweisen. Dieser Abstandsschwellenwert wird insbesondere in Abhängigkeit einer Geschwindigkeit des Fahrzeugs angepasst. Alternativ oder zusätzlich umfasst die Umgebung der aktuellen Reflexionsursprungsposition wenigstens ein dem dynamischen Objekt zugeordnetes Ultraschallcluster, wobei das Ultraschallcluster insbesondere als dem dynamischen Objekt zugehörig klassifizierte Reflexionsursprungspositionen und/oder eine Ausdehnung und/oder eine vorgegebene geometrische Form aufweist. Alternativ oder zusätzlich umfasst die Umgebung der aktuellen Reflexionsursprungsposition wenigstens eine Gitternetzzelle eines Gitternetzes der aktuellen Reflexionsursprungsposition, wobei das Gitternetz die Umgebung des Fahrzeugs unterteilt. Durch diese Arten der Umgebungsbeschreibung der aktuellen Reflexionsursprungsposition resultiert der Vorteil, dass als dem dynamischen Objekt zugehörig klassifizierte Reflexionsursprungspositionen weiter gefiltert werden, so dass beispielsweise verschiedene dynamische Objekte der gleichen Gattung, beispielsweise unterschiedliche Fußgänger leichter voneinander getrennt werden können, wodurch die Ermittlung der angenäherten Objektposition des einzelnen dynamischen Objektes genauer wird.
  • In einer anderen optionalen Weiterführung der Erfindung wird eine aktuelle Objektgeschwindigkeit des dynamischen Objektes und/oder eine aktuelle Objektbewegungsrichtung des dynamischen Objektes in Abhängigkeit der ermittelten angenäherten Objektpositionen des dynamischen Objektes zu unterschiedlichen Zeitpunkten ermittelt. In dieser Weiterführung resultiert der Vorteil, dass die Ermittlung der Objektgeschwindigkeit und/oder der Objektbewegungsrichtung genau erfolgt, da die angenäherten Objektpositionen genau ermittelt werden.
  • In einer weiteren optionalen Ausführung wird die Ermittlung der angenäherten Objektposition des dynamischen Objektes und/oder die Ermittlung der aktuellen Objektgeschwindigkeit und/oder der aktuellen Objektbewegungsrichtung des dynamischen Objektes jeweils nicht durchgeführt, wenn eine Anzahl der als dem dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen eine vorgegebene Konfidenzanzahl unterschreitet. In dieser optionalen Ausführung wird eine höhere Zuverlässigkeit der ermittelten angenäherten Objektposition, der ermittelten Objektgeschwindigkeit und der ermittelten Objektbewegungsrichtung erreicht.
  • Des Weiteren kann es vorgesehen sein, dass eine Bestimmung einer statistischen Unsicherheit in Abhängigkeit der erfassten Sensordaten und/oder der ermittelten aktuellen Reflexionsursprungsposition und/oder der als dem dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen und/oder der ermittelten angenäherten Objektposition durchgeführt wird. Anschließend wird der Distanzschwellenwert in Abhängigkeit der bestimmten statistischen Unsicherheit angepasst. In dieser optionalen Ausführung wird die Zuverlässigkeit und die Genauigkeit der ermittelten angenäherten Objektposition, der ermittelten Objektgeschwindigkeit und der ermittelten Objektbewegungsrichtung gesteigert.
  • Vorzugsweise liegt der Distanzschwellenwert in einem Bereich zwischen 0,1 Meter und 5 Meter, insbesondere beträgt der Distanzschwellenwert 0,5 Meter, 1 Meter, 1,5 Meter oder 3 Meter. Dadurch resultiert der Vorteil, dass Reflexionsursprungspositionen, welche ein anderes dynamisches Objekt in der Umgebung des Fahrzeugs repräsentieren, nicht fälschlicherweise durch das Verfahren beziehungsweise den Algorithmus als dem erkannten dynamischen Objekt zugehörig klassifiziert werden beziehungsweise mehrere dynamische Objekte voneinander getrennt werden können.
  • Der Distanzschwellenwert wird optional in Abhängigkeit der Fahrzeuggeschwindigkeit angepasst. Dadurch resultiert der Vorteil, dass eine zunehmende Ungenauigkeit in der Ermittlung der aktuellen Schätzposition des erkannten Objektes mit steigender Fahrzeuggeschwindigkeit berücksichtigt wird, so dass eine bei höheren Fahrzeuggeschwindigkeiten zuverlässigere Klassifikation der Reflexionsursprungspositionen als dem erkannten dynamischen Objekt zugehörig erfolgt, so dass die Ermittlung der angenäherten Objektposition des dynamischen Objektes in Abhängigkeit der als dem dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen genauer erfolgt.
  • In einer anderen optionalen Ausführung der Erfindung kann in einem zusätzlichen Verfahrensschritt eine Normalisierung zumindest eines Teils der zur Ermittlung der aktuellen Reflexionsursprungsposition zugrundeliegenden Sensordaten bezüglich ihrer Amplitude basierend auf einer Winkellage der ermittelten aktuellen Reflexionsursprungsposition zum Erfassungsbereich des Ultraschallsensors durchgeführt werden. Die Klassifikation der aktuellen Reflexionsursprungsposition als dem erkannten dynamischen Objekt zugehörig erfolgt in dieser Ausführung in Abhängigkeit der normalisierten zugrundeliegenden Sensordaten und in Abhängigkeit eines Amplitudenschwellenwertes, wobei vorzugsweise diejenigen Reflexionsursprungspositionen, welche eine normalisierte Amplitude kleiner oder gleich dem Amplitudenschwellenwert aufweisen, als zu dem erkannten dynamischen Objekt zugehörig klassifiziert werden. Durch diese Ausführung wird die jeweilige aktuelle Reflexionsursprungsposition zuverlässig klassifiziert.
  • Optional kann es des Weiteren vorgesehen sein, dass zusätzlich ein Korrelationskoeffizienten zwischen zumindest einem Teil der erfassten der Reflexionsursprungsposition zugrundeliegenden Sensordaten und dem vom Ultraschallsensor ausgesendeten Sensorsignal ermittelt wird. In dieser Ausgestaltung erfolgt die Klassifikation der aktuellen Reflexionsursprungsposition als dem erkannten dynamischen Objekt zugehörig in Abhängigkeit des ermittelten Korrelationskoeffizienten und in Abhängigkeit eines Korrelationsschwellenwertes, wobei vorzugsweise diejenigen Reflexionsursprungspositionen, welche einen Korrelationskoeffizienten kleiner oder gleich dem Korrelationsschwellenwert aufweisen, als zu dem erkannten dynamischen Objekt zugehörig klassifiziert werden. Durch diese Ausführung wird die jeweilige aktuelle Reflexionsursprungsposition zuverlässiger als dem dynamischen Objekt zugehörig klassifiziert, insbesondere, wenn die Klassifikation zusätzlich in Abhängigkeit der normalisierten zugrundeliegenden Sensordaten und in Abhängigkeit eines Amplitudenschwellenwertes durchgeführt wird.
  • In einer anderen optionalen Ausgestaltung der Erfindung wird eine Anzahl der Reflexionen zu einem vom Ultraschallsensor ausgesendeten Sensorsignal in Abhängigkeit zumindest eines Teils der erfassten der aktuellen Reflexionsursprungsposition zugrundeliegenden Sensordaten ermittelt. Anschließend wird die Klassifikation der aktuellen Reflexionsursprungsposition als dem erkannten dynamischen Objekt zugehörig in Abhängigkeit der ermittelten Anzahl an Reflexionen und in Abhängigkeit eines Anzahlschwellenwertes durchgeführt, wobei diejenigen Reflexionsursprungspositionen, welche eine Anzahl an Reflexionen kleiner oder gleich dem Anzahlschwellenwert aufweisen, als zu dem erkannten dynamischen Objekt zugehörig klassifiziert werden. Durch diese Ausführung wird die jeweilige aktuelle Reflexionsursprungsposition sehr zuverlässig als dem dynamischen Objekt zugehörig klassifiziert, insbesondere, wenn die Klassifikation zusätzlich in Abhängigkeit der normalisierten zugrundeliegenden Sensordaten und in Abhängigkeit eines Amplitudenschwellenwertes durchgeführt wird, und/oder insbesondere, wenn die Klassifikation zusätzlich in Abhängigkeit des ermittelten Korrelationskoeffizienten und in Abhängigkeit eines Korrelationsschwellenwertes erfolgt.
  • Bevorzugt kann es in einer optionalen Ausführung der Erfindung vorgesehen sein, dass die Klassifikation der aktuellen Reflexionsursprungsposition als zu dem erkannten dynamischen Objekt zugehörig durch ein zweites angelerntes maschinelles Erkennungsverfahrens erfolgt.
  • Die Erfindung betrifft ferner ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, die Schritte des Verfahrens gemäß einem der vorhergehenden Ansprüche auszuführen.
  • Die Erfindung betrifft auch eine Vorrichtung beziehungsweise eine zentrale Recheneinheit oder eine zonale Recheneinheit oder ein Steuergerät für ein Fahrzeug. Die zentrale Recheneinheit, die zonale Recheneinheit oder das Steuergerät weisen wenigstens einen ersten Signaleingang auf, welcher dazu eingerichtet ist, wenigstens ein erstes Signal bereitzustellen, welches erfasste Sensordaten von mindestens einem Ultraschallsensor des Fahrzeugs repräsentiert. Die Vorrichtung umfasst außerdem einen zweiten Signaleingang, welcher dazu eingerichtet ist, ein zweites Signal bereitzustellen, welches erfasste Kamerabilder einer Fahrzeugkamera repräsentiert. Eine Recheneinheit der Vorrichtung, insbesondere ein Prozessor, ist so konfiguriert, dass sie die Schritte des erfindungsgemäßen Verfahrens ausführt.
  • Die Vorrichtung umfasst des Weiteren einen optionalen Signalausgang, wobei der Signalausgang dazu eingerichtet ist, ein Steuersignal für eine Anzeigevorrichtung, eine Bremseinrichtung, eine Lenkeinrichtung und/oder einen Antriebsmotor in Abhängigkeit des von der Recheneinheit ausgeführten Verfahrens zu erzeugen.
  • Die Erfindung betrifft darüber hinaus ein Fahrzeug, umfassend die erfindungsgemäße Vorrichtung beziehungsweise die zentrale erfindungsgemäße Recheneinheit oder die erfindungsgemäße zonale Recheneinheit oder das erfindungsgemäße Steuergerät.
  • Weitere Vorteile ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen mit Bezug zu den Figuren.
    • 1: Fahrzeug und dynamisches Objekt in der nahen Umgebung des Fahrzeugs
    • 2: Verfahrensablauf als Blockschaltbild
    • 3: Statistische Verteilung der Amplituden von Echosignalen
    • 4: Statistische Verteilung der Korrelationskoeffizienten von Echosignalen
    • 5a: Ermittelte Reflexionsursprungspositionen in der Umgebung des Fahrzeugs
    • 5b: spätere Reflexionsursprungspositionen in der Umgebung des Fahrzeugs
  • Ausführungsbeispiele
  • In 1 ist ein Fahrzeug 100 in einer Querlücke auf einem Parkplatz und ein dynamisches Objekt 1 in der nahen Umgebung des Fahrzeugs 100 schematisch in Aufsicht von oben dargestellt. Das dynamische Objekt 1 ist in diesem Beispiel ein Fußgänger. Das Fahrzeug 100 weist ein Ultraschallsensorsystem 110 auf, welches an dem vorderen Stoßfänger und an dem hinteren Stoßfänger jeweils vier Ultraschallsensoren 111 umfasst. Das Fahrzeug 100 weist außerdem ein Kamerasystem 120 auf, welches wenigstens die hintere Fahrzeugkamera 121 umfasst, wobei die Fahrzeugkamera 121 vorzugsweise ein Weitwinkelobjektiv aufweist. Die Fahrzeugkamera 121 ist dazu eingerichtet, die Umgebung 90 des Fahrzeugs 100 zu erfassen. Das Fahrzeug weist eine zentrale Recheneinheit 150 auf. Die zentrale Recheneinheit 150 ist elektrisch mit der wenigstens einen Fahrzeugkamera 121 zur Datenübertragung von Kamerabildern verbunden. Es kann vorteilhafterweise vorgesehen sein, dass das Kamerasystem 120 wenigstens vier Fahrzeugkameras 121 umfasst, welche jeweils an einer anderen Fahrzeugseite angeordnet sind und aus verschiedenen Perspektiven unterschiedliche Bereiche der Umgebung 90 erfassen, so dass die zentrale Recheneinheit 150 oder ein Steuergerät basierend auf den erfassten Kamerabildern der vier Fahrzeugkameras beispielsweise eine Umgebungsansicht erzeugen kann (Surround View-Ansicht). Die zentrale Recheneinheit 150 ist elektrisch auch mit dem Ultraschallsensorsystem beziehungsweise den Ultraschallsensoren 111 zur Datenübertragung von Sensordaten der Ultraschallsensoren 111 verbunden. Die von dem jeweiligen Ultraschallsensor 111 mittels der zentralen Recheneinheit 150 empfangenen Sensordaten umfassen beziehungsweise repräsentieren vorteilhafterweise das jeweilige erfasste Echosignal zu einem ausgesendeten Ultraschallsignal und/oder das ausgesendete Ultraschallsignal und/oder basierend auf dem Echosignal mittels eines ASICs im jeweiligen Ultraschallsensor ermittelte Abstandsdaten zwischen dem Fahrzeug 100 und einem Objekt 1 in der Umgebung 90 des Fahrzeugs 100 und optional zumindest eine Eigenschaft des Echosignals. Das Fahrzeug umfasst ferner eine Anzeigevorrichtung 160, eine Bremseinrichtung 161, eine Lenkeinrichtung 162 und/oder einen Antriebsmotor 163, wobei die zentrale Steuereinheit 150 dazu eingerichtet ist, die Anzeigevorrichtung 160, die Bremseinrichtung 161, die Lenkeinrichtung 162 und/oder den Antriebsmotor 163 in Abhängigkeit der empfangenen beziehungsweise erfassten Sensordaten und/oder der empfangenen beziehungsweise erfassten Kamerabilder anzusteuern. Der Fußgänger wird im Erfassungsbereich der Fahrzeugkamera 121 als dynamisches Objekt 1 erfasst. In der zeitlichen Beobachtung bewegt sich das dynamische Objekt hier an dem benachbart parkenden ersten Fahrzeug als statisches Objekt 50 vorbei. Es könnte die Absicht des Fußgängers als dynamisches Objekt 1 sein, das Fahrzeug 100 entlang der geplanten Bewegungsrichtung 2 zu passieren, wobei sich der Fußgänger an den statischen Objekten 50 und 51 beziehungsweise dem benachbart parkenden ersten und zweiten Fahrzeug vorbeibewegt. Im Nahbereich 91 der Umgebung 90 des Fahrzeuges 100 wird der Fußgänger als dynamisches Objekt 1 einen Erfassungsbereich der Fahrzeugkamera 121 während seiner Bewegung zumindest zeitweise zum Teil verdecken, möglicherweise zeitweise vollständig. Außerdem kann es vorkommen, dass bestimmte Körperteile des Fußgängers als dynamisches Objekt 1 im Nahbereich 92 des Fahrzeugs 100 zeitweise nicht erkennbar sind, beispielsweise der Kopf oder die Füße. Eine genaue Positionsbestimmung des Fußgängers als dynamisches Objekt 1 ist dann basierend auf einem Kamerabild der Fahrzeugkamera 121 nicht möglich, bespielsweise kann in diesen Fällen keine Fußpunktermittlung durchgeführt werden. Die Ultraschallsensoren des Ultraschallsystems 110 erfassen als Objekte die statischen Objekte 50 und 51 beziehungsweise die benachbart parkenden Fahrzeuge und den Fußgänger als dynamisches Objekt 1. Diese Erfassung erfolgt auch während der Verdeckung des Erfassungsbereichs der Fahrzeugkamera durch den Fußgänger beziehungsweise durch das dynamische Objekt 1. Um die Objektposition, die Objektgeschwindigkeit und die Objektbewegungsrichtung des Fußgängers als dynamisches Objekt 1 genauer und auch während der Verdeckung des Erfassungsbereichs durch den Fußgänger zu ermitteln, werden die auf der Erfassung der Ultraschallsensoren basierenden Sensordaten des dynamischen Objekts 1 erfindungsgemäß klassifiziert beziehungsweise von den Sensordaten der Ultraschallsensoren zu den statischen Objekten 50 und 51 getrennt.
  • In 2 ist ein Verfahrensablauf als Blockschaltbild schematisch dargestellt. In einem Verfahrensschritt 210 werden Sensordaten mittels der wenigstens zwei Ultraschallsensoren des Fahrzeugs erfasst beziehungsweise Sensordaten von den wenigstens zwei Ultraschallsensoren des Fahrzeugs empfangen. Die Sensordaten repräsentieren jeweils beispielsweise einen Abstand zwischen einem in der Umgebung 90 des Fahrzeugs 100 vorliegenden Objektes 1, 50, 51 und dem Fahrzeug 100 und vorteilhafterweise ein erfasstes Echosignal sowie insbesondere wenigstens eine Eigenschaften des Echosignals, wie beispielsweise einen Korrelationskoeffizienten zwischen dem erfassten Echosignal und dem ausgesendeten Ultraschallsignal. Anschließend wird im Schritt 220 eine aktuelle Reflexionsursprungsposition eines Objektes 1, 50, 51 relativ zu dem Fahrzeug 100 in Abhängigkeit der erfassten aktuellen Sensordaten ermittelt. In einem weiteren Verfahrensschritt 230 wird wenigstens ein Kamerabildes mittels der Fahrzeugkamera 121 erfasst. Es kann in einem anschließenden optionalen Schritt 221 vorgesehen sein, dass zumindest ein Teil der Sensordaten, umfassend das erfasste Echosignal, bezüglich der Amplitude basierend auf einer Winkellage der ermittelten aktuellen Reflexionsursprungsposition zum Erfassungsbereich des Ultraschallsensors normalisiert werden. In einem weiteren optionalen Schritt 222 wird zwischen zumindest einem Teil der erfassten der Reflexionsursprungsposition zugrundeliegenden Sensordaten und dem vom Ultraschallsensor ausgesendeten Sensorsignal ein Korrelationskoeffizienten ermittelt oder aus den zugrundeliegenden Sensordaten ausgelesen, falls dieser Korrelationskoeffizienten schon im Ultraschall-ASIC beziehungsweise der Ultraschallsensor-Recheneinheit ermittelt wurde und in den Sensordaten enthalten ist beziehungsweise bereitgestellt wird. Des Weiteren kann in einem optionalen Schritt 223 eine Anzahl der Reflexionen zu einem vom Ultraschallsensor ausgesendeten Sensorsignal in Abhängigkeit zumindest eines Teils der erfassten der aktuellen Reflexionsursprungsposition zugrundeliegenden Sensordaten ermittelt oder aus den zugrundeliegenden Sensordaten ausgelesen werden, falls diese Anzahl der Reflexionen zu einem vom Ultraschallsensor ausgesendeten Sensorsignal schon im Ultraschall-ASIC beziehungsweise der Ultraschallsensor-Recheneinheit ermittelt wurde und in den Sensordaten enthalten ist beziehungsweise bereitgestellt wird. Das Verfahren weist auch eine Erfassung 230 wenigstens eines Kamerabildes mittels der Fahrzeugkamera 121 auf. Anschließend wird eine Erkennung 240 des dynamischen Objektes 1 in Abhängigkeit des wenigstens einen erfassten Kamerabildes durchgeführt. Die Erkennung des dynamischen Objektes 1 erfolgt bevorzugt durch ein angelerntes maschinelles Erkennungsverfahren, insbesondere ein neuronales Netz. Es kann vorgesehen sein, dass das angelernte maschinelle Erkennungsverfahren dazu eingerichtet ist, individuelle Objektklassen dynamischer Objekte zu differenzieren beziehungsweise Unterklassen von dynamischen Objekten zu unterscheiden. Danach wird im Schritt 250 eine aktuelle Schätzposition des erkannten dynamischen Objektes 1 relativ zum Fahrzeug 100 in Abhängigkeit des wenigstens einen erfassten Kamerabildes bestimmt, insbesondere wird die aktuelle Schätzposition als Fußpunktermittlung des erkannten dynamischen Objektes 1 durchgeführt. Es kann optional ferner vorgesehen sein, dass vor einer Überprüfung 260 in einem optionalen Schritt 255 ein Distanzschwellenwert in Abhängigkeit einer Fahrzeuggeschwindigkeit des Fahrzeugs 100 angepasst wird. In dem weiteren Verfahrensschritt 260 wird überprüft, ob ein Positionsabstand zwischen der ermittelten aktuellen Schätzposition des erkannten dynamischen Objektes 1 und der ermittelten aktuellen Reflexionsursprungsposition kleiner oder gleich dem Distanzschwellenwert ist. Der Distanzschwellenwerts liegt vorzugsweise in einem Bereich zwischen 0,1 Meter und 5 Meter, insbesondere beträgt der Distanzschwellenwert 0,5 Meter, 1 Meter, 1,5 Meter oder 3 Meter. Wenn im Verfahrensschritt 260 erkannt wurde, dass der Positionsabstand zwischen der ermittelten aktuellen Schätzposition des erkannten dynamischen Objektes 1 und der ermittelten aktuellen Reflexionsursprungsposition kleiner oder gleich dem Distanzschwellenwert ist, wird diese aktuell ermittelte Reflexionsursprungsposition im Schritt 270 in Abhängigkeit der zur Ermittlung der aktuellen Reflexionsursprungsposition zugrundeliegenden Sensordaten und/oder in Abhängigkeit der optional ermittelten Eigenschaften des Echosignals der Sensordaten als zu dem erkannten dynamischen Objekt 1 zugehörig klassifiziert, insbesondere als einer erkannten spezifischen individuellen Objektklasse beziehungsweise Unterklasse von dynamischen Objekten zugehörig. Die Klassifikation 270 der aktuellen Reflexionsursprungsposition als zu dem erkannten dynamischen Objekt zugehörig kann optional zusätzlich in Abhängigkeit der während einer vorgegebenen Zeitspanne vor dem aktuellen Zeitpunkt in einer Umgebung der aktuellen Reflexionsursprungsposition liegenden als dem erkannten dynamischen Objekt bereits als zugehörig klassifizierten Reflexionsursprungspositionen durchgeführt werden, wobei die Klassifikation 270 dann vorteilhafterweise in Abhängigkeit der diesen Reflexionsursprungspositionen zugrundeliegenden Sensordaten und/oder in Abhängigkeit der optional ermittelten Eigenschaften des Echosignals der diesen Reflexionsursprungspositionen zugrundeliegenden Sensordaten erfolgt. Die die vorgegebene Zeitspanne liegt beispielsweise in einem Bereich zwischen 10 Millisekunden und 3 Sekunden. Die Umgebung der aktuellen Reflexionsursprungsposition umfasst vorzugsweise diejenigen dem dynamischen Objekt zugeordneten Reflexionsursprungspositionen, welche einen Abstand zu der aktuellen Reflexionsursprungsposition kleiner oder gleich einem Abstandsschwellenwert aufweisen. Alternativ oder zusätzlich umfasst die Umgebung der aktuellen Reflexionsursprungsposition wenigstens ein dem dynamischen Objekt zugeordnetes Ultraschallcluster. Das Ultraschallcluster weist insbesondere als dem dynamischen Objekt zugehörig klassifizierte Reflexionsursprungspositionen auf. Alternativ oder zusätzlich umfasst die Umgebung der aktuellen Reflexionsursprungsposition wenigstens eine Gitternetzzelle, in welcher die aktuelle Reflexionsursprungsposition liegt beziehungsweise zugeordnet ist, wobei das Gitternetz der Gitternetzzelle die Umgebung 90 des Fahrzeugs 100, insbesondere modellhaft, unterteilt, insbesondere in gleichmäßig verteilte rechteckige oder quadratische Gitternetzzellen beziehungsweise Umgebungsteilbereiche. Vorzugsweise erfolgt die Klassifikation 270 der aktuellen Reflexionsursprungsposition als dem erkannten dynamischen Objekt zugehörig in Abhängigkeit der im Schritt 221 ermittelten normalisierten zugrundeliegenden Sensordaten und in Abhängigkeit eines Amplitudenschwellenwertes, wobei vorzugsweise diejenigen Reflexionsursprungspositionen, welche eine normalisierte Amplitude kleiner oder gleich dem Amplitudenschwellenwert aufweisen, als zu dem erkannten dynamischen Objekt zugehörig klassifiziert werden. Alternativ oder zusätzlich erfolgt die Klassifikation 270 der aktuellen Reflexionsursprungsposition als dem erkannten dynamischen Objekt zugehörig in Abhängigkeit des ermittelten oder in den Sensordaten bereitgestellten Korrelationskoeffizienten und in Abhängigkeit eines Korrelationsschwellenwertes, wobei vorzugsweise diejenigen Reflexionsursprungspositionen, welche einen Korrelationskoeffizienten kleiner oder gleich dem Korrelationsschwellenwert aufweisen, als zu dem erkannten dynamischen Objekt zugehörig klassifiziert werden. Des Weiteren kann es alternativ oder zusätzlich vorgesehen sein, die Klassifikation 270 der aktuellen Reflexionsursprungsposition als dem erkannten dynamischen Objekt zugehörig in Abhängigkeit der ermittelten Anzahl an Reflexionen und in Abhängigkeit eines Anzahlschwellenwertes durchzuführen, wobei diejenigen Reflexionsursprungspositionen, welche eine Anzahl an Reflexionen kleiner oder gleich dem Anzahlschwellenwert aufweisen, als zu dem erkannten dynamischen Objekt zugehörig klassifiziert werden. Besonders bevorzugt wird die Klassifikation 270 der aktuellen Reflexionsursprungsposition als zu dem erkannten dynamischen Objekt zugehörig durch ein zweites angelerntes maschinelles Erkennungsverfahrens durchgeführt, insbesondere durch ein trainiertes zweites neuronales Netz. Das trainierte zweite neuronale Netz kann beispielsweise basierend auf einer oder mehrerer Eigenschaften des Echosignals, wie der wenigstens einen erfassten oder normalisierten Amplitude und/oder der enthaltene Anzahl an Reflexionen in dem Echosignal und/oder dem Korrelationskoeffizienten, eine Wahrscheinlichkeit für die aktuellen Reflexionsursprungsposition als zu dem erkannten dynamischen Objekt zugehörig bestimmen beziehungsweise erkennen. Nach der Klassifikation 270 der aktuellen Reflexionsursprungsposition als zu dem erkannten dynamischen Objekt zugehörig erfolgt eine Ermittlung 280 der angenäherten Objektposition des dynamischen Objektes in Abhängigkeit der als dem dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen, insbesondere durch einen Kalman-Filter. Anschließend kann es im optionalen Schritt 290 vorgesehen sein, eine aktuelle Objektgeschwindigkeit und/oder eine aktuelle Objektbewegungsrichtung des dynamischen Objektes in Abhängigkeit der ermittelten angenäherten Objektpositionen des dynamischen Objektes zu unterschiedlichen Zeitpunkten zu ermitteln. In einer optionalen Ausgestaltung wird die Ermittlung 280 der angenäherten Objektposition des dynamischen Objektes und/oder die optionale Ermittlung 290 der aktuellen Objektgeschwindigkeit und/oder der aktuellen Objektbewegungsrichtung des dynamischen Objektes nicht durchgeführt, wenn eine Anzahl der als dem dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen eine vorgegebene Konfidenzanzahl unterschreitet. Darüber hinaus kann in wenigstens einem weiteren optionalen Schritt eine Bestimmung einer statistischen Unsicherheit in Abhängigkeit der erfassten Sensordaten, der ermittelten aktuellen Reflexionsursprungsposition, der als dem dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen und/oder der ermittelten angenäherten Objektposition durchgeführt werden (nicht in 2 dargestellt). Anschließend erfolgt die Anpassung 255 des Distanzschwellenwerts alternativ oder zusätzlich in Abhängigkeit der bestimmten statistischen Unsicherheit. Das Verfahren wird bevorzugt kontinuierlich durchgeführt.
  • In 3 ist eine statistische Verteilung der Amplituden 301 beziehungsweise der Amplitudenbeträge von Echosignalen, welche an statischen Objekten 50 und 51 und dynamischen Objekten 1 reflektiert wurden, schematisch dargestellt. Der Graph 390 betrifft die statistische Verteilung der Amplituden 301 beziehungsweise der Amplitudenbeträge von Echosignalen, welche an statischen Objekten 50 und 51 reflektiert wurden. Der Graph 380 betrifft die statistische Verteilung der Amplituden 301 beziehungsweise der Amplitudenbeträge von Echosignalen, welche an dynamischen Objekten 1 reflektiert wurden. Es ist erkennbar, dass typischerweise ein dynamisches Objekt 1 keine Amplitude 301 aufweist, welche kleiner als ein erster Amplitudenschwellenwert 310 oder größer als ein zweiter Amplitudenschwellenwert 320 ist. Wenn die Amplitude des Echosignals folglich kleiner dem ersten Amplitudenschwellenwert 310 oder größer dem zweiten Amplitudenschwellenwert 320 ist, kann mit großer Wahrscheinlichkeit ausgeschlossen werden, dass ein dynamisches Objekt vorliegt. Wenn die Amplitude im Bereich 330 zwischen Amplitudenschwellenwert 310 und dem zweiten Amplitudenschwellenwert 320 liegt beziehungsweise größer oder gleich dem ersten Amplitudenschwellenwert 310 und kleiner oder gleich dem zweiten Amplitudenschwellenwert 320 ist, ist eine Klassifikation allerdings nicht eindeutig, da in diesem Bereich 330 sowohl Amplituden von Echosignalen, welche an statischen Objekten reflektiert wurden als auch Amplituden von Echosignalen, welche an dynamischen Objekten reflektiert wurden, vorliegen. Der Bereich 330 wird deutlich enger, das heißt ein Ausschluss, der von statischen Objekten verursachten Reflexionsursprungspositionen, verbessert, wenn die Amplitude des jeweiligen Echosignals in Abhängigkeit der Winkellage der dazu ermittelten Reflexionsursprungsposition im Erfassungsbereich des jeweiligen Ultraschallsensors zusätzlich jeweils normalisiert wird, da die Amplituden der Echosignale auch in Abhängigkeit dieser Winkellage relativ stark variieren.
  • In 4 ist eine statistische Verteilung des Korrelationskoeffizienten 401 zwischen dem ausgesendeten Ultraschallsignals eines Ultraschallsensors 111 und dem empfangenen Echosignal des Ultraschallsensors 111 schematisch dargestellt, wobei die Reflexion des ausgesendeten Ultraschallsignals an statischen und dynamischen Objekten erfolgt. Der Graph 490 betrifft die statistische Verteilung der Korrelationskoeffizienten 401 beziehungsweise der Beträge der Korrelationskoeffizienten 401 von Echosignalen, welche an statischen Objekten 50 und 51 reflektiert wurden. Der Graph 480 betrifft die statistische Verteilung der Korrelationskoeffizienten 401 beziehungsweise der Beträge der Korrelationskoeffizienten 401 von Echosignalen, welche an dynamischen Objekten 1 reflektiert wurden. Es ist erkennbar, dass oberhalb eines Schwellenwertes 410 für den Korrelationskoeffizienten 401 keine Korrelationskoeffizienten vorliegen, welche mit einem dynamischen Objekt assoziiert werden können. Mit anderen Worten sind die Korrelationskoeffizienten zu Echosignalen, welche an dynamischen Objekten reflektiert wurden, typischerweise kleiner oder gleich dem Schwellenwert 410 für den Korrelationskoeffizienten 401. Wenn der Korrelationskoeffizient kleiner oder gleich dem Schwellenwert 410 für den Korrelationskoeffizienten 401 liegt, ist eine Klassifikation als zu einem dynamischen Objekt zugehörig allerdings nicht eindeutig, da in diesem Bereich 420 sowohl Korrelationskoeffizienten 401 von Echosignalen, welche an statischen Objekten reflektiert wurden als auch Korrelationskoeffizienten 401 von Echosignalen, welche an dynamischen Objekten reflektiert wurden, vorliegen.
  • Die Klassifikation 270 der jeweiligen Reflexionsursprungspositionen in Abhängigkeit von den in 3 und 4 gezeigten Eigenschaften der zugrundeliegenden Echosignale erfolgt bevorzugt durch ein angelerntes maschinelles Erkennungsverfahren , insbesondere ein trainiertes neuronales Netz, wobei zu Beurteilung der Wahrscheinlichkeit für das Vorliegen eines dynamischen Objektes weitere Eigenschaften der zugrundeliegenden Echosignale berücksichtigt werden können, beispielsweise die Anzahl der im Echosignal bestimmten Reflexionen. Durch die Beurteilung einer Vielzahl an Eigenschaften der Echosignale durch das angelernte maschinelle Erkennungsverfahren, insbesondere das trainierte neuronale Netz, wird die Klassifikation 270 einer aktuellen Reflexionsursprungsposition als zu einem erkannten dynamischen Objekt zugehörig sehr zuverlässig.
  • In 5a und 5b sind ermittelte Reflexionsursprungspositionen 501 in der Umgebung 90 des Fahrzeugs 100 in einer x-y-Ebene beziehungsweise in einer Karte in senkrechter Aufsicht von oben zu unterschiedlichen Zeitpunkten t1 und t2 schematisch dargestellt, wobei die in 5a und 5b dargestellten Reflexionsursprungspositionen beispielsweise aus einer Situationen eines hinter dem Fahrzeug 100 passierenden Fußgängers als dynamisches Objekt gemäß 1 resultiert. Der Zeitpunkt t2 liegt beispielsweise nach dem Zeitpunkt t1, könnte allerdings in einer anderen Situation auch umgekehrt sein, wenn sich beispielsweise der Fußgänger hinter dem Fahrzeug in umgekehrter Richtung bewegt. Die ermittelten Reflexionsursprungspositionen 501 repräsentieren somit im Bereich 510 das statische Objekt 50 und im Bereich 520 das statische Objekt 51 (die benachbart parkenden Fahrzeuge aus 1) sowie im Bereich 530 den Fußgänger als das dynamische Objekt 1. Die Klassifikation 270 der jeweiligen aktuellen Reflexionsursprungspositionen 501 im Verfahrensschritt 270 erfolgt demnach bevorzugt auch in Abhängigkeit der Reflexionsursprungspositionen 501 in der Umgebung der aktuellen Reflexionsursprungsposition 501.
  • In 5b ist die Situation aus 5a zu einem späteren Zeitpunkt dargestellt. Der Bereich 510, welcher das statische Objekt 50 repräsentiert, grenzt in diesem Ausführungsbeispiel unmittelbar an den Bereich 530 an, welcher in diesem Fall den Fußgänger als das dynamische Objekt 1 repräsentiert. Die Bereiche 510, 520 und 530 können sich auch überschneiden (hier nicht gezeigt), beispielsweise, wenn ein Fußgänger als dynamisches Objekt 1 auf einem Fußweg mit Bordsteinkante am Fahrzeug 100 vorbei geht. Es ist in 5b erkennbar, dass die örtliche Nähe der Reflexionsursprungspositionen zueinander in einer Karte der Umgebung des Fahrzeugs 100 nicht ausreicht, um eine zuverlässige Klassifikation 270 der (aktuellen) Reflexionsursprungsposition durchführen zu können. Deshalb erfolgt die Klassifikation 270 in Abhängigkeit von den der jeweiligen aktuellen Reflexionsursprungspositionen 501 zugrundeliegenden Sensordaten, welche wenigstens eine Eigenschaft des Echosignals umfassen kann, und/oder in Abhängigkeit ermittelter Eigenschaften des Echosignals dieser Sensordaten und/oder in Abhängigkeit der Reflexionsursprungspositionen 501 in der Umgebung der aktuellen Reflexionsursprungsposition 501, wobei diese Klassifikation 270 besonders bevorzugt, wie oben beschrieben, durch ein angelerntes maschinelles Erkennungsverfahren durchgeführt wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102010045657 A1 [0004]
    • DE 102019205565 A1 [0005]
    • DE 102018216790 A1 [0006]

Claims (15)

  1. Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes (1) im Umfeld (90) eines Fahrzeugs (100), wobei das Fahrzeug (100) mindestens zwei Ultraschallsensoren (111) und mindestens eine Fahrzeugkamera (121) aufweist, umfassend wenigstens die folgenden V erfah rensschritte • Erfassung (210) von Sensordaten mittels der wenigstens zwei Ultraschallsensoren (111), • Ermittlung (220) einer aktuellen Reflexionsursprungsposition (501) eines statischen oder dynamischen Objektes (1, 50, 51) in Abhängigkeit der erfassten Sensordaten, • Erfassung (230) wenigstens eines Kamerabildes mittels der Fahrzeugkamera (121), • Erkennung (240) des dynamischen Objektes (1) in Abhängigkeit des wenigstens einen erfassten Kamerabildes, und • Ermittlung (250) einer aktuellen Schätzposition des erkannten dynamischen Objektes (1) relativ zum Fahrzeug (100) in Abhängigkeit des wenigstens einen erfassten Kamerabildes, dadurch gekennzeichnet, dass, wenn ein Positionsabstand zwischen der ermittelten aktuellen Schätzposition des erkannten dynamischen Objektes (1) und der ermittelten aktuellen Reflexionsursprungsposition (501) kleiner oder gleich einem Distanzschwellenwert ist, folgende Schritte durchgeführt werden • Klassifikation (270) der aktuellen Reflexionsursprungsposition in Abhängigkeit der zur Ermittlung der aktuellen Reflexionsursprungsposition zugrundeliegenden Sensordaten als zu dem erkannten dynamischen Objekt (1) zugehörig, insbesondere durch ein angelerntes maschinelles Erkennungsverfahren, und • Ermittlung (280) der angenäherten Objektposition des dynamischen Objektes (1) in Abhängigkeit der als dem dynamischen Objekt (1) zugehörig klassifizierten Reflexionsursprungspositionen, insbesondere durch einen Kalman-Filter.
  2. Verfahren nach Anspruch 1, wobei die Klassifikation (270) der aktuellen Reflexionsursprungsposition (501) als dem erkannten dynamischen Objekt (1) zugehörig zusätzlich in Abhängigkeit der zugrundeliegenden Sensordaten der während einer vorgegebenen Zeitspanne vor dem aktuellen Zeitpunkt in einer Umgebung der aktuellen Reflexionsursprungsposition (501) liegenden als dem erkannten dynamischen Objekt zugehörig klassifizierten Reflexionsursprungspositionen (501) erfolgt.
  3. Verfahren nach Anspruch 2, wobei • die Umgebung (530) der aktuellen Reflexionsursprungsposition (501) diejenigen dem dynamischen Objekt (1) zugeordneten Reflexionsursprungspositionen (501) umfasst, welche einen Abstand zu der aktuellen Reflexionsursprungsposition (501) kleiner oder gleich einem Abstandsschwellenwert aufweisen, und/oder • die Umgebung (530) der aktuellen Reflexionsursprungsposition (501) wenigstens ein dem dynamischen Objekt (1) zugeordnetes Ultraschallcluster umfasst, wobei das Ultraschallcluster insbesondere als dem dynamischen Objekt (1) zugehörig klassifizierte Reflexionsursprungspositionen (501) aufweist, und/oder • die Umgebung (530) der aktuellen Reflexionsursprungsposition (501) wenigstens eine Gitternetzzelle, in welcher die aktuelle Reflexionsursprungsposition (501) liegt beziehungsweise zugeordnet ist, wobei das Gitternetz der Gitternetzzelle die Umgebung (90) des Fahrzeugs (100) unterteilt.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei zusätzlich folgender Schritt durchgeführt wird • Ermittlung (290) einer aktuellen Objektgeschwindigkeit und/oder einer aktuellen Objektbewegungsrichtung des dynamischen Objektes (1) in Abhängigkeit der ermittelten angenäherten Objektpositionen des dynamischen Objektes (1) zu unterschiedlichen Zeitpunkten.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Ermittlung (280) der angenäherten Objektposition des dynamischen Objektes (1) und/oder die Ermittlung (290) der aktuellen Objektgeschwindigkeit des dynamischen Objektes (1) und/oder der aktuellen Objektbewegungsrichtung des dynamischen Objektes (1) jeweils nicht durchgeführt wird, wenn eine Anzahl der als dem dynamischen Objektes (1) zugehörig klassifizierten Reflexionsursprungspositionen (501) eine vorgegebene Konfidenzanzahl unterschreitet.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei zusätzlich folgender Schritt durchgeführt wird • Bestimmung einer statistischen Unsicherheit in Abhängigkeit der erfassten Sensordaten, der ermittelten aktuellen Reflexionsursprungsposition (501), der als dem dynamischen Objekt (1) zugehörig klassifizierten Reflexionsursprungspositionen (501) und/oder der ermittelten angenäherten Objektposition, und • Anpassung (255) des Distanzschwellenwerts in Abhängigkeit der bestimmten statistischen Unsicherheit.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Distanzschwellenwerts in einem Bereich zwischen 0,1 Meter und 5 Meter liegt.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei zusätzlich folgender Schritt durchgeführt wird • Normalisierung (221) zumindest eines Teils der zur Ermittlung der aktuellen Reflexionsursprungsposition (501) zugrundeliegenden Sensordaten bezüglich ihrer Amplitude basierend auf einer Winkellage der ermittelten aktuellen Reflexionsursprungsposition (501) zum Erfassungsbereich des jeweiligen Ultraschallsensors (111), wobei • die Klassifikation (270) der aktuellen Reflexionsursprungsposition (501) als dem erkannten dynamischen Objekt (1) zugehörig in Abhängigkeit der normalisierten zugrundeliegenden Sensordaten und in Abhängigkeit wenigstens eines Amplitudenschwellenwertes erfolgt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei zusätzlich folgender Schritt durchgeführt wird • Ermittlung (222) eines Korrelationskoeffizienten zwischen zumindest einem Teil der erfassten der Reflexionsursprungsposition zugrundeliegenden Sensordaten und dem vom jeweiligen Ultraschallsensor (111) ausgesendeten Sensorsignal, wobei • die Klassifikation (270) der aktuellen Reflexionsursprungsposition (501) als dem erkannten dynamischen Objekt (1) zugehörig in Abhängigkeit des ermittelten Korrelationskoeffizienten und in Abhängigkeit eines Schwellenwertes für den Korrelationskoeffizienten erfolgt.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei zusätzlich folgender Schritt durchgeführt wird • Ermittlung (223) einer Anzahl der Reflexionen zu einem vom jeweiligen Ultraschallsensor (111) ausgesendeten Sensorsignal in Abhängigkeit zumindest eines Teils der erfassten der aktuellen Reflexionsursprungsposition (501) zugrundeliegenden Sensordaten, wobei • die Klassifikation (270) der aktuellen Reflexionsursprungsposition (501) als dem erkannten dynamischen Objekt (1) zugehörig in Abhängigkeit der ermittelten Anzahl an Reflexionen und in Abhängigkeit eines Anzahlschwellenwertes erfolgt.
  11. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Klassifikation (270) der aktuellen Reflexionsursprungsposition (501) als zu dem erkannten dynamischen Objekt (1) zugehörig durch ein zweites angelerntes maschinelles Erkennungsverfahrens erfolgt.
  12. Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, die Schritte des Verfahrens gemäß einem der vorhergehenden Ansprüche auszuführen.
  13. Vorrichtung für ein Fahrzeug (100), insbesondere zentrale Recheneinheit (150) oder zonale Recheneinheit oder Steuergerät, umfassend mindestens folgende Komponenten • einen ersten Signaleingang, welcher dazu eingerichtet ist, wenigstens ein erstes Signal bereitzustellen, welches erfasste Sensordaten von einem Ultraschallsensor (111) des Fahrzeugs (100) repräsentiert, • einen zweiten Signaleingang, welcher dazu eingerichtet ist, ein zweites Signal bereitzustellen, welches erfasste Kamerabilder einer Fahrzeugkamera (121) repräsentiert, wobei • die Vorrichtung, insbesondere ein Prozessor der Vorrichtung, so konfiguriert ist, dass sie die Schritte des Verfahrens gemäß einem der Ansprüche 1 bis 11 ausführt.
  14. Vorrichtung nach Anspruch 13, zusätzlich umfassend • einen Signalausgang, wobei der Signalausgang dazu eingerichtet ist, ein Steuersignal für eine Anzeigevorrichtung (160), eine Bremseinrichtung (161), eine Lenkeinrichtung (162) und/oder einen Antriebsmotor (163) in Abhängigkeit einer durch das Verfahren ermittelten angenäherten Objektposition des dynamischen Objektes (1) zu erzeugen.
  15. Fahrzeug (100), umfassend eine Vorrichtung nach einem der Ansprüche 13 oder 14.
DE102022206123.3A 2022-06-20 2022-06-20 Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes, Computerprogramm, Vorrichtung und Fahrzeug Pending DE102022206123A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102022206123.3A DE102022206123A1 (de) 2022-06-20 2022-06-20 Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes, Computerprogramm, Vorrichtung und Fahrzeug
EP23177592.5A EP4296715A1 (de) 2022-06-20 2023-06-06 Verfahren zur ermittlung einer angenäherten objektposition eines dynamischen objektes, computerprogramm, vorrichtung und fahrzeug
US18/334,910 US20240010195A1 (en) 2022-06-20 2023-06-14 Method for ascertaining an approximate object position of a dynamic object, computer program, device, and vehicle
JP2023099832A JP2024000534A (ja) 2022-06-20 2023-06-19 動的物体の概算物***置を決定するための方法、コンピュータプログラム、装置、および車両
KR1020230078672A KR20230174730A (ko) 2022-06-20 2023-06-20 동적 물체의 대략적인 물체 위치를 결정하는 방법, 컴퓨터 프로그램, 장치 및 차량
CN202310737588.8A CN117269967A (zh) 2022-06-20 2023-06-20 用于求取动态对象的接近的对象位置的方法、设备和车辆

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022206123.3A DE102022206123A1 (de) 2022-06-20 2022-06-20 Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes, Computerprogramm, Vorrichtung und Fahrzeug

Publications (1)

Publication Number Publication Date
DE102022206123A1 true DE102022206123A1 (de) 2023-12-21

Family

ID=86692891

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022206123.3A Pending DE102022206123A1 (de) 2022-06-20 2022-06-20 Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes, Computerprogramm, Vorrichtung und Fahrzeug

Country Status (6)

Country Link
US (1) US20240010195A1 (de)
EP (1) EP4296715A1 (de)
JP (1) JP2024000534A (de)
KR (1) KR20230174730A (de)
CN (1) CN117269967A (de)
DE (1) DE102022206123A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013005882A1 (de) 2013-04-06 2013-10-24 Daimler Ag Erkennen und Bestimmen der Position von teilverdeckten Objekten
DE102020205127A1 (de) 2020-04-23 2021-10-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Generieren einer Objektrepräsentation mittels empfangener Ultraschallsignale

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010045657A1 (de) 2010-09-17 2012-03-22 Wabco Gmbh Umfeld-Überwachungssystem für ein Fahrzeug
DE102013206707A1 (de) * 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
JP6256239B2 (ja) * 2014-07-25 2018-01-10 株式会社デンソー 歩行者検出装置および歩行者検出方法
SE539846C2 (en) * 2015-08-20 2017-12-19 Scania Cv Ab Method, control unit and a system in a vehicle for detection of a vulnerable road user
DE102018216790A1 (de) 2018-09-28 2020-04-02 Robert Bosch Gmbh Verfahren zur Bewertung einer Auswirkung eines Objektes im Umfeld eines Fortbewegungsmittels auf ein Fahrmanöver des Fortbewegungsmittels
DE102019205565A1 (de) 2019-04-17 2020-10-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bewerten einer Objekthöhe mittels von einem an einem Fahrzeug angebrachten Ultraschallsensor empfangenen Ultraschallsignalen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013005882A1 (de) 2013-04-06 2013-10-24 Daimler Ag Erkennen und Bestimmen der Position von teilverdeckten Objekten
DE102020205127A1 (de) 2020-04-23 2021-10-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Generieren einer Objektrepräsentation mittels empfangener Ultraschallsignale

Also Published As

Publication number Publication date
KR20230174730A (ko) 2023-12-28
EP4296715A1 (de) 2023-12-27
JP2024000534A (ja) 2024-01-05
US20240010195A1 (en) 2024-01-11
CN117269967A (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
EP2684070B1 (de) Verfahren zum detektieren einer parklücke, parkhilfesystem und kraftfahrzeug mit einem parkhilfesystem
DE102017102506B4 (de) Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung
WO2017021119A1 (de) Verfahren und vorrichtung in einem kraftfahrzeug zur verbesserten datenfusionierung bei einer umfelderfassung
EP2200881B1 (de) Verfahren zur schätzung der relativbewegung von video-objekten und fahrerassistenzsystem für kraftfahrzeuge
DE102017101476B3 (de) Lokalisieren eines Objekts in einer Umgebung eines Kraftfahrzeugs durch ein Ultraschallsensorsystem
DE102012001554A1 (de) Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102020124236A1 (de) Mehrweg-geisterabmilderung im fahrzeug-radarsystem
WO2019162794A1 (de) Verfahren und system zur erkennung von für ein fahrzeug geeigneten parklücken
DE102019205565A1 (de) Verfahren und Vorrichtung zum Bewerten einer Objekthöhe mittels von einem an einem Fahrzeug angebrachten Ultraschallsensor empfangenen Ultraschallsignalen
DE102013202915A1 (de) Verfahren und Vorrichtung zum Vermessen einer Parklücke für ein Einparkassistenzsystem eines Kraftfahrzeugs
DE102010012662A1 (de) Vorrichtung und Verfahren zur Bestimmung einer Durchfahrtshöhe
DE102017212513A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE102018220114A1 (de) Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors
WO2021213788A1 (de) Verfahren und vorrichtung zum erkennen von blooming in einer lidarmessung
DE112020000325T5 (de) Schätzung von Anhängereigenschaften mit Fahrzeugsensoren
DE102022206123A1 (de) Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes, Computerprogramm, Vorrichtung und Fahrzeug
EP3663881A1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102016109850B4 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
EP4068223A1 (de) Verfahren und system zur bestimmung der bodenebene mit einem künstlichen neuronalen netz
DE102018119632A1 (de) Verfahren zur Bestimmung der Detektionsreichweite eines Umgebungssensors
DE112020001528T5 (de) Erfassungsvorrichtung und erfassungsverfahren
DE102022002498B3 (de) Verfahren zum Fusionieren von Sensordaten
DE102018120966A1 (de) Verfahren zum Erkennen eines Teils eines Anhängers sowie Anhängererfassungssystem für ein Zugfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified