DE102022123948A1 - Systeme und verfahren zur virtuellen fahrzeugeinparkhilfe - Google Patents

Systeme und verfahren zur virtuellen fahrzeugeinparkhilfe Download PDF

Info

Publication number
DE102022123948A1
DE102022123948A1 DE102022123948.9A DE102022123948A DE102022123948A1 DE 102022123948 A1 DE102022123948 A1 DE 102022123948A1 DE 102022123948 A DE102022123948 A DE 102022123948A DE 102022123948 A1 DE102022123948 A1 DE 102022123948A1
Authority
DE
Germany
Prior art keywords
vehicle
parking
dimensions
parking space
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022123948.9A
Other languages
English (en)
Inventor
Jian Wan
Harald Martinez
Michael A. Blommer
Kenneth Michael Mayer
Kwaku Prakah-Asante
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102022123948A1 publication Critical patent/DE102022123948A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/085Taking automatic action to adjust vehicle attitude in preparation for collision, e.g. braking for nose dropping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2530/00Input parameters relating to vehicle conditions or values, not covered by groups B60W2510/00 or B60W2520/00
    • B60W2530/201Dimensions of vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/18Details relating to CAD techniques using virtual or augmented reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Traffic Control Systems (AREA)

Abstract

In dieser Schrift werden Systeme und Verfahren zur virtuellen Fahrzeugeinparkhilfe offenbart. Ein beispielhaftes Verfahren beinhaltet Bestimmen einer aktuellen Fahrzeugposition und von Fahrzeugabmessungen eines Fahrzeugs, Bestimmen von Parkraumabmessungen eines Parkraums, Empfangen einer gewünschten Parkposition für das Fahrzeug durch eine Augmented-Reality-Schnittstelle, wobei die Augmented-Reality-Schnittstelle ein dreidimensionales Fahrzeugmodell basierend auf den Fahrzeugabmessungen beinhaltet und die Augmented-Reality-Schnittstelle dazu konfiguriert ist, einem Benutzer zu ermöglichen, das dreidimensionale Fahrzeugmodell virtuell in dem Parkraum zu platzieren, um die gewünschte Parkposition zu bestimmen, Bestimmen einer virtuellen Einparkprozedur für das Fahrzeug basierend auf der von dem Benutzer ausgewählten gewünschten Parkposition und den Parkraumabmessungen eines Parkraums und Veranlassen, dass das Fahrzeug basierend auf der virtuellen Einparkprozedur autonom einparkt.

Description

  • GEBIET DER TECHNIK
  • Die vorliegende Offenbarung betrifft Systeme und Verfahren für einen digital verbesserten individualisierten Fahrzeugzugangs- und Fahrzeugeinparkassistenten.
  • ALLGEMEINER STAND DER TECHNIK
  • Der Aufwand, der erforderlich ist, um ein Fahrzeug sicher und genau in einem gewünschten Raum einzuparken, wirkt sich stark auf das Kundenerlebnis eines Fahrers aus. Es gibt verschiedene Systeme zur Fahrzeugeinparkhilfe, um die Belastung des Fahrers beim Einparken eines Fahrzeugs, insbesondere in einem engen Raum, zu minimieren, einschließlich automatischen Einparkens und ferngesteuerten Einparkens unter Verwendung einer mobilen Vorrichtung, wie etwa eines Smartphones.
  • Es gibt jedoch mehrere Herausforderungen bei den aktuellen Lösungen. Zum Beispiel kann es schwierig sein, zu bestimmen, ob ein Parkraum für einen Fahrzeugzugang groß genug ist. Manchmal wird von einem Fahrer eine nicht zentrierte/nicht standardisierte Fahrzeugposition bevorzugt. In einem Anwendungsfall kann der Benutzer einen atypischen Weg für den Einstieg/Ausstieg in das bzw. aus dem Fahrzeug wünschen, wie etwa, wenn der Benutzer einen einfachen Zugang zum Entladen von Paketen von einer Seite des Fahrzeugs wünscht. In einem anderen Anwendungsfall kann ein Benutzer wünschen, ein Elektrofahrzeug an einer drahtlosen Ladevorrichtung in der Nähe eines Parkraums auszurichten. In Fällen, in denen ein oder mehrere Objekte an dem Fahrzeug angebracht sind (z. B. ein Fahrrad oder eine Frachtbox auf dem Dach), können zusätzliche Überlegungen erforderlich sein. Diese Objekte können vergessen werden und wenn das Fahrzeug eingeparkt wird, können diese angebrachten Objekte das Fahrzeug, benachbarte Fahrzeuge und/oder eine Parkstruktur möglicherweise beschädigen.
  • KURZDARSTELLUNG
  • Der Zugangs- und Einparkassistent kann Augmented-Reality-Technologie (AR-Technologie), wie etwa AR-Sehhilfen oder mobile AR, verwenden, um zu bestimmen, wann ein Parkraum eine ausreichende Größe für das Fahrzeug aufweist. Wenn ein Fahrzeug in einem Raum einzuparken ist, kann ein virtueller digitaler Zwilling des Fahrzeugs erzeugt werden, der den Platzbedarf des Fahrzeugs mit seinen Abmessungen genau darstellt. Der Fahrer kann das Fahrzeug dann „virtuell einparken“, indem er den digitalen Zwilling in den gewünschten Parkraum positioniert.
  • Das System beinhaltet verschiedene Komponenten, die unter anderem eine Fahrzeugplattform (vehicle platform - VP), eine Anbringungserfassungsvorrichtung (attachment sensing device - ASD), ein automatisches Einparksystem (automatic parking system - APS) und eine Augment-Reality-Einparkhilfe (augment reality parking assist - ARPA) beinhalten. Die VP, die ASD, das APS und die ARPA können an dem Fahrzeug, über ein entferntes Netzwerk und/oder eine Kombination daraus angeordnet sein. Die VP, die ASD, das APS und die ARPA können alle miteinander in Kommunikation stehen. In einigen Fällen kann die ARPA als eine Augmented-Reality-Anwendung (AR-Anwendung) umgesetzt sein, die auf einer AR-Vorrichtung, wie etwa einer AR-Sehhilfe, oder einer mobilen Vorrichtung ausgeführt wird. Die ARPA kann auch auf Fahrzeugebene unter Verwendung eines Fahrzeuginfotainmentsystems oder einer anderen ähnlichen Mensch-Maschine-Schnittstelle (human-machine interface - HMI) des Fahrzeugs umgesetzt sein.
  • Die VP kann Fahrzeugdaten speichern, einschließlich unter anderem der aktuellen Fahrzeugposition und der Fahrzeugabmessungen sowie historischer Präferenzen, wie etwa vorherige individualisierte Parkpositionen.
  • Die ASD kann erkennen, ob ein oder mehrere Anbringungen, wie etwa eine Frachtbox oder Fahrräder, an dem Fahrzeug angebracht sind. Die ASD kann etwaige Objekte erkennen, die an dem Fahrzeug angebracht sind. Die ASD kann unter Nutzung eingebauter Sensoren am Fahrzeug, wie etwa am Heck des Fahrzeugs oder auf dem Dach des Fahrzeugs, die Position einer Anbringung bzw. von Anbringungen identifizieren sowie Status, Stelle und Abmessungen der Anbringung an die VP übertragen. In einigen Fällen können dem Fahrzeug zusätzliche Sensoren hinzugefügt werden, um die eingebauten Sensoren zu ergänzen.
  • Das APS kann einen bevorzugten Fahrzeugparkstandort (in dieser Schrift als eine „gewünschte Parkposition“ bezeichnet) von der VP empfangen. Das APS setzt Algorithmen um, die Daten über die aktuelle Fahrzeugposition und die gewünschte Parkposition verwenden und automatisch einen optimierten Weg für das Fahrzeug berechnen. Das APS kann das Fahrzeug autonom steuern, um diesen optimierten Weg zu navigieren, damit es sich von der aktuellen Fahrzeugposition zu der gewünschten Parkposition bewegt. Auf diese Weise kann das APS das Fahrzeug autonom einparken.
  • Die ARPA kann den digitalen Zwilling (z. B. das dreidimensionale Fahrzeugmodell) des Fahrzeugs auf der AR-Vorrichtung anzeigen, eine Benutzerschnittstelle bereitstellen, damit der Fahrer den digitalen Zwilling selektiv in der gewünschten Parkposition auf der AR-Schnittstelle positionieren kann, und mit der VP kommunizieren.
  • In einem beispielhaften Anwendungsfall kann die VP einen Anbringungsstatus von der ASD abrufen. Die VP kann Fahrzeugabmessungen und einen etwaigen Anbringungsstatus an die ARPA übertragen. Basierend auf den von der VP abgerufenen Informationen kann die ARPA ein virtuelles Fahrzeug generieren, das ein dreidimensionales Fahrzeugmodell ist. Das dreidimensionale Fahrzeugmodell kann basierend auf den Fahrzeugabmessungen und der aktuellen Position des physischen Fahrzeugs in den AR-Raum projiziert werden.
  • Die ARPA kann einen Begrenzungsrahmen um das Fahrzeug und/oder das angebrachte Objekt erzeugen, der die Größe(n) und Position(en) einer Anbringung bzw. von Anbringungen beinhaltet, die aktuell an dem Fahrzeug angebracht ist bzw. sind. Die AR-Vorrichtung kann verwendet werden, um das vorstehend generierte virtuelle Fahrzeug (den „digitalen Zwilling“) zu sehen. Der Fahrer kann das virtuelle Fahrzeug positionieren, um es virtuell in die gewünschte Parkposition einzuparken. Der Manipulationsvorgang könnte beinhalten, dass ein Benutzer das Fahrzeug vorwärts/rückwärts, nach links/rechts verschiebt und die Orientierung des Fahrzeugs durch die AR-Anzeige modifiziert.
  • Sobald die gewünschte Parkposition gewählt wurde, kann eine virtuelle Einparkprozedur ausgeführt werden, um zu bestimmen, ob die gewünschte Parkposition erreicht werden kann. Während der virtuellen Einparkprozedur kann der Fahrer das Manöver kontinuierlich überwachen und visuell verifizieren, dass die Einfahrt und der Raum für das Fahrzeug groß genug sind und ob irgendeine Anbringung an dem Fahrzeug mit einem physischen Hindernis um den Parkraum, wie etwa dem Dach einer Garage, kollidiert. Dieser Verifizierungsprozess kann auch automatisch innerhalb der ARPA ausgeführt werden, in welcher der Begrenzungsrahmen des virtuellen Fahrzeugs (des virtuellen Modells oder des Fahrzeugmodells) mit dem physischen Parkraum verglichen wird. Die Abmessungen des physischen Parkraums können jedes Mal, wenn sich das virtuelle Fahrzeug bewegt, durch in die AR-Vorrichtung oder das Fahrzeug eingebaute Tiefenkameras gescannt werden. Auf jede Interferenz zwischen den beiden kann der Fahrer durch die Anzeige der AR-Vorrichtung hingewiesen werden.
  • Der Fahrer kann die gewünschte Parkposition des virtuellen Fahrzeugs durch die AR-Vorrichtung feinabstimmen, um persönliche Präferenzen für die Fahrzeugposition in dem Parkraum einzubeziehen. Wenn sich zum Beispiel auf der linken Seite Raumeinschränkungen (z. B. ein anderes geparktes Fahrzeug oder eine Wand) befinden, möchte der Fahrer möglicherweise, dass das Fahrzeug weiter nach rechts geneigt ist, was mehr Raum zum Einsteigen/Aussteigen oder einfacheres Beladen/Entladen von Paketen von der linken Seite des Fahrzeugs für den Fahrer möglich macht. Die virtuelle Einparkprozedur kann als abgeschlossen betrachtet werden, wenn das Fahrzeug von seinem aktuellen Standort zu der gewünschten Parkposition bewegt werden kann und keine Einschränkungen vorhanden sind. Das heißt, es werden keine möglichen Kollisionen oder Zusammenstöße erkannt.
  • Nachdem die virtuelle Einparkprozedur abgeschlossen wurde, kann die ARPA die individualisierte Fahrzeugparkposition drahtlos zurück an die VP übertragen. Die VP übermittelt die gewünschte Parkposition an das APS. Das APS kann einen Fahrzeugweg (in dieser Schrift als eine „autonome Einparkprozedur“ bezeichnet) von der aktuellen Position zu der gewünschten Parkposition berechnen und bewegt das Fahrzeug autonom zu dem gewünschten Raum. Nach erfolgreichem Einparken kann die VP die Parameter für eine individualisierte Parkposition speichern. Wenn dieses Fahrzeug zu demselben Parkraum zurückkehrt, kann der Fahrer wählen, die zuvor gespeicherten Parameter für individualisiertes Einparken wiederzuverwenden.
  • Figurenliste
  • Eine detaillierte Beschreibung wird im Hinblick auf die beigefügten Zeichnungen dargelegt. Die Verwendung derselben Bezugszeichen kann ähnliche oder identische Elemente angeben. Für verschiedene Ausführungsformen können andere Elemente und/oder Komponenten genutzt werden als jene, die in den Zeichnungen veranschaulicht sind, und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht vorhanden. Die Elemente und/oder Komponenten in den Figuren sind nicht unbedingt maßstabsgetreu gezeichnet. Für die gesamte Offenbarung gilt, dass Terminologie im Singular und Plural abhängig vom Kontext austauschbar verwendet werden kann.
    • 1 veranschaulicht eine beispielhafte Architektur in Übereinstimmung mit einer oder mehreren Ausführungsformen der vorliegenden Offenbarung.
    • 2 ist eine Nahaufnahme eines Screenshots einer virtuellen Einparkprozedur in Übereinstimmung mit einer oder mehreren Ausführungsformen der vorliegenden Offenbarung.
    • 3 ist ein Ablaufdiagramm eines beispielhaften Verfahrens in Übereinstimmung mit einer oder mehreren Ausführungsformen der vorliegenden Offenbarung.
    • 4 ist ein Ablaufdiagramm eines beispielhaften Verfahrens in Übereinstimmung mit einer oder mehreren Ausführungsformen der vorliegenden Offenbarung.
    • 5 ist ein Ablaufdiagramm eines beispielhaften Verfahrens in Übereinstimmung mit einer oder mehreren Ausführungsformen der vorliegenden Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Es wird nun auf die Zeichnungen Bezug genommen, in denen 1 eine veranschaulichende Architektur 100 abbildet, in der Techniken und Strukturen der vorliegenden Offenbarung umgesetzt sein können. Die Architektur 100 beinhaltet ein Fahrzeug 102, das versucht, in einem Parkraum 104 einzuparken. In dem Beispiel aus 1 liegt der Parkraum 104 in einer Garage, die durch eine Garagendecke oder ein Garagentor begrenzt ist, und befindet sich das zweite Fahrzeug 108 benachbart zu dem Parkraum 104. Wenngleich dieses spezifische Szenario in dieser Schrift ausführlicher erörtert wird, dient dieses Beispiel lediglich Beschreibungszwecken. Die in dieser Schrift offenbarten Aspekte der vorliegenden Offenbarung können in einem beliebigen Szenario angewandt werden, in dem ein Benutzer bestimmen möchte, ob ein Fahrzeug in einem konkreten Standort eingeparkt werden kann, bevor er die Einparkprozedur versucht.
  • Das Fahrzeug 102 kann eine Fahrzeugplattform 110 umfassen, die mit einer AR-Vorrichtung 112 kommuniziert, um dem Fahrer des Fahrzeugs 102 ein virtuelles Einparkhilfemerkmal bereitzustellen. Einige oder alle dieser Komponenten in der Architektur 100 können unter Verwendung des Netzwerks 114 miteinander kommunizieren. Das Netzwerk 114 kann Kombinationen aus Netzwerken beinhalten, die es den Komponenten in der Architektur 100 ermöglichen, miteinander zu kommunizieren. Das Netzwerk 114 kann einen beliebigen oder eine Kombination aus mehreren unterschiedlichen Netzwerktypen beinhalten, wie etwa Mobilfunk, Kabel, das Internet, drahtlose Netzwerke und andere private und/oder öffentliche Netzwerke. In einigen Fällen kann das Netzwerk 114 Wi-Fi oder Wi-Fi-Direct beinhalten. Die Komponenten der Architektur 100 können auch über Kurzstrecken- oder Funkfrequenzverbindungen kommunizieren, wie etwa Bluetooth oder Ultrabreitband (ultrawideband - UWB).
  • Das Fahrzeug 102 kann auch eine Anbringungssensorvorrichtung 118, ein automatisches Einparksystem 120, eine Sensorplattform 122 und eine Kommunikationsschnittstelle 124 umfassen. Die Fahrzeugplattform 116 kann einen Prozessor 126 und einen Speicher 128 zum Speichern von Anweisungen umfassen. Der Prozessor 126 führt im Speicher 128 gespeicherte Anweisungen aus, um beliebige in dieser Schrift offenbarte Verfahren durchzuführen. Wenn auf Handlungen Bezug genommen wird, die durch die Fahrzeugplattform 116 oder das Fahrzeug 102 durchgeführt werden, schließt dies implizit die Ausführung von Anweisungen durch den Prozessor 126 ein. Im Allgemeinen kann die Fahrzeugplattform 116 die Kommunikationsschnittstelle 124 nutzen, um Daten über das Netzwerk 114 oder eine drahtlose Kurzstreckenverbindung zu übertragen und/oder zu empfangen.
  • Die Anbringungssensorvorrichtung 118 kann eine beliebige Anzahl an Sensoren oder Mechanismen beinhalten, die verwendet werden, um das Vorhandensein einer Anbringung oder eines Objekts an dem Fahrzeug 102 zu bestimmen, zu erkennen oder zu erfassen. Die Anbringungssensorvorrichtung 118 kann erkennen, ob ein oder mehrere Anbringungen, wie etwa eine Frachtbox oder Fahrräder, an dem Fahrzeug angebracht sind. Wenn eine Anbringung erkannt wird, kann die Anbringungssensorvorrichtung 118 einen Anbringungsstatus, eine Anbringungsstelle und Anbringungsabmessungen an die Fahrzeugplattform 116 ausgeben.
  • Eine beispielhafte Anbringung könnte unter anderem ein Fahrrad und/oder einen Rollstuhl beinhalten. Wenn das Fahrzeug ein Truck ist, könnte die Anbringung Gegenstände beinhalten, die lose oder gesichert auf einer Ladefläche des Trucks aufbewahrt werden. In einem Beispiel, wenn die Anbringung ein Fahrrad ist, kann das Fahrrad an einem Fahrradträger auf dem Dach des Fahrzeugs oder einem Fahrradträger hinter dem Fahrzeug angebracht sein. Die Anbringungssensorvorrichtung 118 könnte einen beliebigen Sensor beinhalten, der in der Lage ist, das Zusammenfügen des Fahrrads mit dem Fahrradträger zu erkennen, ähnlich einem Schnallensensor eines Sicherheitsgurts, der erkennt, wann ein Sicherheitsgurt angeschnallt wurde. In einem anderen Beispiel könnte die Anbringungssensorvorrichtung 118 einen Drucksensor beinhalten, der ein Gewicht eines Objekts erkennt, das auf einem Dachträger des Fahrzeugs platziert ist.
  • In noch einem anderen Beispiel könnte die Anbringungssensorvorrichtung 118 in Kombination mit einer Kamera oder einer Vielzahl von Kameras der Sensorplattform 122 des Fahrzeugs 102 verwendet werden, die zum Erkennen von Anbringungen verwendet werden können. Zum Beispiel kann die Anbringungssensorvorrichtung 118 verwendet werden, um das Vorhandensein einer Anbringung zu erkennen, wohingegen die Sensorplattform 122 verwendet werden kann, um den Typ der Anbringung und/oder eine Größe (z. B. Abmessungen) der Anbringung zu erkennen.
  • Zum Beispiel kann die Sensorplattform 122 Kameras beinhalten, die auf Anbringungsorte an dem Fahrzeug gerichtet sind. Sobald Bilder erlangt wurden, kann die Anbringungssensorvorrichtung 118 Bilderkennungsalgorithmen verwenden, um Attribute von angebrachten Objekten zu erkennen. Selbstverständlich kann die Sensorplattform 122 verschiedene an das Fahrzeug montierte Sensoren beinhalten, wie etwa Kameras, LID AR, IR, Ultraschall und dergleichen. Auch hier kann die Anbringungssensorvorrichtung 118 einen Anbringungsstatus, eine Anbringungsstelle und Anbringungsabmessungen an die Fahrzeugplattform 116 ausgeben.
  • Die Fahrzeugplattform 116 kann relevante Fahrzeugdaten bestimmen und/oder speichern, einschließlich unter anderem einer aktuellen Fahrzeugposition und Fahrzeugabmessungen. Zum Beispiel kann die Fahrzeugplattform 116 aus GPS-Signalen oder unter Verwendung anderer ähnlicher Technologien eine aktuelle Fahrzeugposition erlangen. Die Fahrzeugplattform 116 kann Anbringungsdaten von der Anbringungssensorvorrichtung 118 erlangen und diese 112 zusammen mit der aktuellen Fahrzeugposition und den Fahrzeugabmessungen der AR-Vorrichtung bereitstellen.
  • Die AR-Vorrichtung 112 kann einen Prozessor 130 und einen Speicher 132 zum Speichern von Anweisungen beinhalten. Der Prozessor 130 führt im Speicher 132 gespeicherte Anweisungen aus, um beliebige in dieser Schrift offenbarte Verfahren durchzuführen. Wenn auf Handlungen Bezug genommen wird, die durch die AR-Vorrichtung 112 durchgeführt werden, schließt dies implizit die Ausführung von Anweisungen durch den Prozessor 130 ein. Im Allgemeinen kann die AR-Vorrichtung 112 die Kommunikationsschnittstelle 134 nutzen, um Daten über die Kommunikationsschnittstelle 114 oder eine drahtlose Kurzstreckenverbindung zu übertragen und/oder zu empfangen. Zum Beispiel kann die AR-Vorrichtung 112 über das Netzwerk 114 mit der Fahrzeugplattform 110 kommunizieren.
  • Im Allgemeinen kann die AR-Vorrichtung 112 basierend auf den von der Fahrzeugplattform 110 empfangenen Informationen ein virtuelles Fahrzeug („dreidimensionale Darstellung“) generieren, das basierend auf den Fahrzeugabmessungen und der aktuellen Position des physischen Fahrzeugs in einer AR-Anzeige positioniert wird. Die AR-Vorrichtung 112 kann auch einen Begrenzungsrahmen erzeugen, der die Größen und Positionen aller aktuell an dem Fahrzeug angebrachten Anbringungen beinhaltet.
  • Die AR-Vorrichtung 112 kann ein Generatormodul 136 für virtuelle Inhalte, ein Manipulatormodul 138 für virtuelle Inhalte, ein Modul 140 zum Berechnen und Verhindern von Kollisionen, ein Modul 142 zur virtuellen Registrierung und Wiedergabe von Anzeigen und einen Generator 143 für Parkpositionen beinhalten. Das Generatormodul 136 für virtuelle Inhalte kann dazu konfiguriert sein, basierend auf einer durch ein Kommunikationsmodul empfangenen Fahrzeuggröße eine virtuelle Nachbildung des Fahrzeugs zu erzeugen. Das Generatormodul 136 für virtuelle Inhalte kann Bilder von einer Kamera einer Sensorplattform 144 der AR-Vorrichtung 112 erlangen. Um eine Augmented-Reality-Anzeige zu erzeugen, blendet das Generatormodul 136 für virtuelle Inhalte die virtuelle Fahrzeugdarstellung am aktuellen Standort des physischen Fahrzeugs ein. Das Generatormodul 136 für virtuelle Inhalte kann auch die Begrenzungsrahmen aller aktuell an dem Fahrzeug angebrachten Anbringungen generieren.
  • Die AR-Vorrichtung 112 beinhaltet eine AR-Anzeige 146. Im Allgemeinen kann die Anzeige 146 eine Augmented-Reality-Schnittstelle beinhalten, die dazu konfiguriert ist, einem Benutzer zu ermöglichen, ein dreidimensionales Fahrzeugmodell 148 virtuell in dem Parkraum 104 zu platzieren, um eine gewünschte Parkposition für das Fahrzeug zu bestimmen. Die AR-Anzeige 146 beinhaltet ein AR-Erfahrung, die, wenn ein tragbares mobiles AR- oder ein durchsichtiges Video-AR-Wearable verwendet wird, Bilder eines Parkraums umfasst, die von einer Kamera der AR-Vorrichtung und/oder des Fahrzeugs erlangt werden, wobei das virtuelle Fahrzeug in die Bilder eingeblendet wird oder, wenn ein durchsichtiges optisches AR-Wearable verwendet wird, wobei das virtuelles Fahrzeug direkt mit dem physischen Parkraum eingeblendet wird. Die AR-Anzeige 146 beinhaltet Benutzerschnittstellenelemente, die einem Benutzer ermöglichen, mit dem virtuellen Fahrzeug zu interagieren. Dies kann einen Navigationsbereich 150 beinhalten, in dem der Benutzer die Position des virtuellen Fahrzeugs nach links/rechts, vorwärts/rückwärts und/oder eine Orientierung des Fahrzeug anpassen kann, um das virtuelle Fahrzeug in der gewünschten Parkposition zu platzieren. In dem Beispiel aus 1 kann das Fahrzeugmodell 148 in eine gewünschte Parkposition in dem Parkraum 104 geleitet werden. Der Benutzer kann die gewünschte Parkposition auswählen, indem er das Fahrzeug unter Verwendung des Navigationsbereichs 150 anpasst.
  • Der Benutzer kann unter Verwendung von Technologie, wie etwa einem Blickzeiger, einer Handgeste, einem Sprachbefehl und so weiter, mit der AR-Vorrichtung interagieren. Zum Beispiel kann eine in die AR-Vorrichtung eingebaute Tiefenkamera (die AR-Vorrichtung kann ihre eigene Sensorplattform 144 beinhalten, die wie in Bezug auf das Fahrzeug offenbarte Kameras oder andere Sensoren aufweist) die Handgeste des Benutzers, wie etwa Klicken oder Zusammendrücken, erfassen, um verschiedene Logiken in einem Manipulator für virtuelle Inhalte auszulösen, um das Fahrzeugmodell 148 vorwärts/rückwärts oder nach links/rechts zu verschieben und die Orientierung zu ändern.
  • Das Manipulatormodul 138 für virtuelle Inhalte kann die Benutzermanipulation des Fahrzeugmodells 148 in der AR-Anzeige 146 bewirken, was unter anderem Verschieben des Fahrzeugs in verschiedene Richtungen, Umschalten der Anzeige des Anbringungsbegrenzungsrahmens auf dem Fahrzeug und so weiter beinhaltet.
  • Sobald die gewünschte Parkposition ausgewählt wurde, kann basierend auf der von dem Benutzer ausgewählten gewünschten Parkposition und den Parkraumabmessungen eines Parkraums eine virtuelle Einparkprozedur für das Fahrzeug ausgeführt werden. Die virtuelle Einparkprozedur ist eine nachgeahmte Prozedur, die ermöglicht, dass das virtuelle Fahrzeug von seiner aktuellen Position in die gewünschte Parkposition gefahren wird. Ein Teil dieses Prozesses schließt das Ausführen des Moduls 140 zum Berechnen und Verhindern von Kollisionen ein, das Flächen des Fahrzeugmodells 148 mit den physischen Einschränkungen des Parkraums und dessen Umgebung vergleichen kann, wenn der virtuelle Inhalt während der virtuellen Einparkprozedur seine Position ändert. Die physischen Einschränkungen (wie etwa eine Wand oder Decke) können (unter anderem) in dem Format einer dreidimensionalen Punktwolke vorliegen, die durch Scannen des Parkraums und dessen Umgebung durch in die AR-Vorrichtung oder das Fahrzeug eingebaute Kameras erlangt werden kann.
  • Die virtuelle Einparkprozedur beinhaltet virtuelles Bewegen des Fahrzeugmodells 148 in den Parkraum. Die Abmessungen des Parkraums können von Fahrzeugsensoren bestimmt werden. Die Abmessungen können nicht nur Breite, sondern auch Tiefe (Länge) und Höhe über dem Parkraum beinhalten.
  • Das Modul 140 zum Berechnen und Verhindern von Kollisionen kann basierend auf der Modellierung die Wahrscheinlichkeit einer Kollision bestimmen. Wenn während der virtuellen Einparkprozedur eine mögliche Kollision erkannt wird, können dem Fahrer das Auftreten und die Position einer Kollision durch die AR-Anzeige 146 angezeigt werden. Zum Beispiel kann das Modul 140 zum Berechnen und Verhindern von Kollisionen Bereiche an dem virtuellen Fahrzeug, die einen Zusammenprall erfahren können, hervorheben oder anderweitig markieren. Das Modul 140 zum Berechnen und Verhindern von Kollisionen kann auch eine alternative Fahrzeugposition berechnen, die der gewünschten Position am nächsten liegt, und die Kollision durch einen Kollisionsvermeidungsalgorithmus vermeiden. Somit kann die gewünschte Parkposition angepasst werden, um die Kollision zu vermeiden. Zusätzlich zur Kollision kann das Modul 140 zum Berechnen und Verhindern von Kollisionen erkennen, wenn das Fahrzeug zu nahe an einem benachbarten Fahrzeug oder einem anderen Objekt platziert ist, was Einsteigen/Aussteigen in das bzw. aus dem Fahrzeugs erschwert.
  • Das Modul 142 zur virtuellen Registrierung und Wiedergabe von Anzeigen kann unter Verwendung der SLAM-Technologie (simultaneous localization and mapping technology-SLAM-Technologie) oder der Bildmarkierungsverfolgung das Fahrzeugmodell mit der physischen Welt registrieren und das Ergebnis wiedergeben, um die gemischte Realität in der AR-Anzeige zu erzeugen. Nach der Registrierung kann der virtuelle Inhalt die physische Welt unabhängig davon, wohin der Blickwinkel der AR-Vorrichtung ausgerichtet ist, im Raum fixieren oder verankern. Dies ermöglicht dem Fahrer, aus dem Fahrzeug auszusteigen und das virtuelle Einparken genau zu überwachen, um eine genaue Parkposition zu erreichen.
  • Nachdem der Fahrer die gewünschte Parkposition durch die AR-Anzeige 146 final festgelegt hat, berechnet das Generatormodul 143 für Parkpositionen aus der aktuellen Position des Fahrzeugs eine relative Position und Ausrichtung. Das Generatormodul 143 für Parkpositionen überträgt das Ergebnis zurück an die Fahrzeugplattform 110. Das Ergebnis kann eine autonome Einparkprozedur beinhalten, die durch das automatische Einparksystem 120 des Fahrzeugs 102 ausgeführt werden kann.
  • Wenngleich die AR-Vorrichtung als eine separate Vorrichtung offenbart wird, versteht es sich, dass einige oder alle der Funktionen der AR-Vorrichtung als eine Infotainmentoption auf Fahrzeugebene umgesetzt werden können. Die vorliegende Offenbarung zieht auch die Verwendung einer autonomen Einparkprozedur in Betracht. Es kann jedoch die virtuelle Einparkprozedur durchgeführt werden, um einem Benutzer zu ermöglichen, sein Fahrzeug virtuell einzuparken, mögliche Kollisionen zu identifizieren und das Fahrzeug manuell in die gewünschte Parkposition einzuparken, wenn während der virtuellen Einparkprozedur keine Kollisionen oder andere Warnungen bestimmt werden.
  • Während der AR-verbesserten virtuellen Einparkerfahrung kann der Fahrer Einparkmanöver kontinuierlich überwachen und visuell verifizieren, dass die Einfahrt und der Raum für das Fahrzeug groß genug sind und ob möglicherweise irgendeine Anbringung an dem Fahrzeug mit einem physischen Hindernis um den Parkraum, wie etwa dem Dach der Garage, kollidiert. Dieser Überprüfungsprozess kann auch (wie vorstehend angemerkt) automatisch innerhalb der AR-Vorrichtung ausgeführt werden, wobei der Begrenzungsrahmen des virtuellen Fahrzeugs mit dem physischen Parkraum, der von in die AR-Vorrichtung oder das Fahrzeug eingebauten Tiefenkameras gescannt wird, verglichen wird, wenn sich das virtuelle Fahrzeug während der virtuellen Einparkprozedur bewegt. Der Benutzer kann auch einen Transparenzgrad für das Fahrzeugmodell 148 auswählen. Zum Beispiel kann der Benutzer auswählen, das Fahrzeugmodell 148 auf eine Weise zu erzeugen, die dem Benutzer ermöglicht, zu sehen, was sich um das Fahrzeugmodell 148 herum befindet, wenn es in der gewünschten Parkposition geparkt ist. Dies ermöglicht dem Benutzer, zumindest teilweise durch das Fahrzeug „hindurch zu sehen“ und die Objekte um das Fahrzeug herum zu beobachten, die durch das Fahrzeugmodell 148 verdeckt sein können.
  • Vorteilhafterweise kann der Fahrer die gewünschte Zielposition des virtuellen Fahrzeugs durch die AR-Vorrichtung feinabstimmen, um persönliche Präferenzen für die Fahrzeugposition in dem Parkraum einzubeziehen. Wenn sich zum Beispiel auf der linken Seite Raumeinschränkungen (z. B. ein anderes geparktes Fahrzeug oder eine Wand) befinden, möchte der Fahrer möglicherweise, dass das Fahrzeug weiter nach rechts geneigt ist, was mehr Raum zum Einsteigen/Aussteigen oder einfacheres Beladen/Entladen von Paketen von der linken Seite des Fahrzeugs für den Fahrer möglich macht.
  • Zusammengefasst sendet die AR-Vorrichtung 112 die individualisierte Fahrzeugparkposition an die Fahrzeugplattform 110 zurück, nachdem die virtuelle Einparkprozedur abgeschlossen ist. Mit der Bestätigung vom Fahrer, dass keine Kollision vorliegt und mit dem Einparken begonnen werden kann, übermittelt die Fahrzeugplattform 110 die gewünschte Parkposition an das automatische Einparksystem 120. Das automatische Einparksystem 120 berechnet den Fahrzeugweg von der aktuellen Position zu der gewünschten Parkposition und bewegt das Fahrzeug automatisch in den gewünschten Raum. In einigen Fällen wandelt das automatische Einparksystem 120 die virtuelle Einparkprozedur in eine autonome Einparkprozedur um.
  • Nach erfolgreichem virtuellen Einparken kann die Fahrzeugplattform 110 die Parameter für eine individualisierte Parkposition speichern. Wenn dieses Fahrzeug zu demselben Parkraum zurückkehrt, kann der Fahrer wählen, die zuvor gespeicherten Parameter für individualisiertes Einparken wiederzuverwenden.
  • 2 ist ein vergrößerter Screenshot der AR-Anzeige 146 aus 1. Die AR-Anzeige 146 beinhaltet ein Bild oder eine physische Szene 154 des Parkraums 104. Der Parkraum 104 befindet sich in einer Garage eines Hauses. Der Parkraum 104 weist eine obere Höhe auf, die durch eine Garagentoröffnung 156 begrenzt ist. Das zweite Fahrzeug 108 befindet sich auf einer linken Seite der Garage. Ein Fahrer des Fahrzeugs möchte das Fahrzeug in dem Parkraum 104 einparken und möchte sicherstellen, dass das Fahrzeug in die Garage einfahren kann, während auf dessen Dach Gegenstände aufbewahrt werden. In diesem Beispiel beinhaltet das Fahrzeugmodell 148 ein dreidimensionales Modell des Fahrzeugs, das basierend auf Daten erstellt werden kann, die von einem Erstausrüster (original equipment manufacturer - OEM) oder einer anderen verlässlichen Quelle erlangt wurden. Das Fahrzeugmodell 148 beinhaltet auch einen Begrenzungsrahmen 158, der eine Größe und Form der auf dem Dach des Fahrzeugs aufbewahrten Gegenstände darstellt. Zum Beispiel kann Gepäck auf dem Dach des Fahrzeugs aufbewahrt werden.
  • In diesem Beispiel kann der Benutzer den Navigationsbereich 150 auf der AR-Anzeige 146 nutzen, um das Fahrzeugmodell 148 neu zu positionieren. Der Navigationsbereich 150 kann Schaltflächen beinhalten, um das Fahrzeug vorwärts, rückwärts, nach links und rechts zu bewegen, sowie eine Schaltfläche, die dem Benutzer ermöglicht, eine Orientierung des Fahrzeugmodells 148 zu ändern. Informationen bezüglich des Einparkprozesses können in einem Informationsbereich 152 angezeigt werden. Der Informationsbereich 152 kann Informationen über mögliche Kollisionen, die Parkraumgröße und so weiter beinhalten.
  • In einem beispielhaften Anwendungsfall kann der Benutzer auswählen, das Fahrzeugmodell 148 leicht nach rechts zu bewegen, um sicherzustellen, dass der Fahrer ausreichend Platz hat, um seine Tür zu öffnen, ohne das zweite Fahrzeug 108 zu treffen. Sobald der Benutzer seine gewünschte Parkposition ausgewählt hat, werden die Koordinaten für die gewünschte Parkposition im Vergleich zu der aktuellen Fahrzeugposition identifiziert. Es wird eine virtuelle Einparkprozedur bestimmt, die Lenk- und Vorwärts-/Rückwärtsvorgänge beinhaltet, die erforderlich sind, um das Fahrzeug von seinem aktuellen Standort in die gewünschte Parkposition zu fahren. Die virtuelle Einparkprozedur kann auch analysiert werden, um sicherzustellen, dass das Fahrzeugmodell 148 mit dem Begrenzungsrahmen 158 unter die Garagentoröffnung 156 passt. Wenn die Gesamthöhe des Fahrzeugmodells 148 und des Begrenzungsrahmens 158 gleich oder möglicherweise höher als eine Höhe der Garagentoröffnung 156 ist, ist eine Kollision wahrscheinlich und kann für den Fahrer identifiziert werden.
  • Wie vorstehend angemerkt, kann der Benutzer diese Funktionalitäten von einer AR-Vorrichtung anfordern, die innerhalb des Fahrzeugs verwendet wird. Der Benutzer kann diese Funktionalitäten auch von einer AR-Vorrichtung anfordern, wenn der Benutzer außerhalb des Fahrzeugs steht. Zum Beispiel könnte die AR-Vorrichtung ein Smartphone des Benutzers beinhalten. Der Benutzer kann eine gewünschte Parkposition auswählen, eine virtuelle Einparkprozedur durchführen und eine autonome Einparkprozedur überwachen, während er sich außerhalb des Fahrzeugs befindet. Dies ermöglicht dem Fahrer, verschiedene Blickwinkel auf das Fahrzeug zu erhalten, während es in den Parkraum gefahren wird. Der Benutzer kann dem Fahrzeug durch die AR-Vorrichtung auch einen Nothalt signalisieren, wenn der Fahrer bestimmt, dass das Fahrzeug wahrscheinlich eine Kollision haben wird. Die Einparkprozedur kann auch beendet werden, wenn ein Sensor des Fahrzeugs eine bevorstehende Kollision erfasst. Zum Beispiel können Radar- oder Ultraschallsensoren, die um das Fahrzeug herum positioniert sind, erfassen, wann ein Abschnitt des Fahrzeugs kurz davor steht, mit einem Objekt zusammenzuprallen.
  • 3 ist ein Ablaufdiagramm eines beispielhaften Verfahrens. Das Verfahren beinhaltet einen Schritt 302 des Bestimmens einer aktuellen Fahrzeugposition und von Fahrzeugabmessungen eines Fahrzeugs. Das Bestimmen der aktuellen Fahrzeugposition kann durch Analyse von GPS-Daten erfolgen. Das Bestimmen von Fahrzeugabmessungen kann erreicht werden, indem die Fahrzeugabmessungen aus dem Speicher in einer Fahrzeugplattform erlangt werden. Die Fahrzeugabmessungen könnten auch von einem Dienstanbieter oder einer anderen Online-Ressource über ein Netzwerk erlangt werden.
  • Als Nächstes kann das Verfahren einen Schritt 304 des Bestimmens von Parkraumabmessungen eines Parkraums beinhalten. Zum Beispiel können Sensoren eines Fahrzeugs oder einer AR-Vorrichtung die Parkraumabmessungen erkennen. In einigen Fällen können Parkraumabmessungen von einer Infrastrukturressource, wie etwa einem Parkhaus, erlangt werden.
  • Das Verfahren kann einen Schritt 306 des Empfangens einer gewünschten Parkposition für das Fahrzeug durch eine Augmented-Reality-Schnittstelle beinhalten. Wie vorstehend angemerkt, kann die Augmented-Reality-Schnittstelle ein dreidimensionales Fahrzeugmodell basierend auf den Fahrzeugabmessungen umfassen. Das dreidimensionale Fahrzeugmodell kann auf Bildern oder der physischen Szene des Parkraums platziert oder in diese eingeblendet werden. Die Augmented-Reality-Schnittstelle kann dazu konfiguriert sein, einem Benutzer zu ermöglichen, das dreidimensionale Fahrzeugmodell virtuell in dem Parkraum zu platzieren, um die gewünschte Parkposition für das Fahrzeug zu bestimmen. Selbstverständlich ist die gewünschte Parkposition individualisierbar. Somit kann der Fahrer nicht nur auswählen, im Allgemeinen in dem Parkraum einzuparken, sondern sein Fahrzeug auf bevorzugte Weise innerhalb des Parkraums, anstatt direkt in der Mitte des Parkraums, anzuordnen.
  • Das Verfahren kann auch einen Schritt 308 des Bestimmens einer virtuellen Einparkprozedur für das Fahrzeug, die auf der von dem Benutzer ausgewählten gewünschten Parkposition und den Parkraumabmessungen eines Parkraums basiert, beinhalten. Die virtuelle Einparkprozedur ermöglicht dem Fahrer, vorausschauend zu analysieren, wie das Fahrzeug in den Parkraum einfahren würde, wenn das Fahrzeug in die gewünschten Parkposition eingeparkt würde. Die virtuelle Einparkprozedur kann mögliche Kollisionen identifizieren. Das heißt, die virtuelle Einparkprozedur umfasst Bestimmen des Freiraums des Fahrzeugs in Bezug auf ein physisches Objekt benachbart zu dem Parkraum, wenn das Fahrzeug während der virtuellen Einparkprozedur virtuell in den Parkraum gefahren wird und virtuell in der gewünschten Parkposition geparkt ist.
  • Wenn keine Kollisionen erkannt werden, kann die gewünschte Parkposition verwendet werden, um eine autonome Einparkprozedur zu erzeugen. Somit beinhaltet das Verfahren einen Schritt 310 des Veranlassens, dass das Fahrzeug basierend auf der virtuellen Einparkprozedur autonom einparkt. Zum Beispiel kann die virtuelle Einparkprozedur in spezifische Fahrzeugvorgänge umgewandelt werden, die autonom durchgeführt werden können.
  • Das Verfahren kann Speichern der gewünschten Parkposition beinhalten, um dem Benutzer zu ermöglichen, die gewünschte Parkposition wiederzuverwenden. Die gewünschte Parkposition kann zur zukünftigen Verwendung im Speicher einer Fahrzeugplattform gespeichert werden. In einem Fall kann das Verfahren Bestimmen, dass sich das Fahrzeug in dem Parkraum befindet, Abrufen der gewünschten Parkposition, die im Speicher gespeichert ist, und Veranlassen des Fahrzeugs, in der gewünschten Parkposition in dem Parkraum einzuparken, beinhalten.
  • 4 ist ein anderes beispielhaftes Verfahren der vorliegenden Offenbarung. Das Verfahren kann einen Schritt 402 des Bestimmens einer Anbringung eines Zubehörteils an dem Fahrzeug beinhalten. Die Fahrzeugabmessungen umfassen auch Abmessungen des Zubehörteils. Das Verfahren kann auch einen Schritt 404 des Bestimmens eines Begrenzungsrahmens um das Fahrzeug und das Zubehörteil beinhalten. Wie vorstehend angemerkt, wird der Begrenzungsrahmen während der virtuellen Einparkprozedur verwendet, um Kollisionen zu bestimmen, wenn dem Fahrzeug Anbringungen zugeordnet sind.
  • Das Verfahren kann auch einen Schritt 406 des Generierens des dreidimensionalen Fahrzeugmodells basierend auf den Fahrzeugabmessungen sowie einen Schritt 408 des Ermöglichens, dass der Benutzer das dreidimensionale Fahrzeugmodell selektiv in dem Parkraum platziert, beinhalten. Selbstverständlich kann das Fahrzeugmodell den Begrenzungsrahmen beinhalten, der erzeugt wurde, um die Zubehörteile (falls vorhanden) darzustellen.
  • 5 ist ein Ablaufdiagramm eines noch anderen beispielhaften Verfahrens. Das Verfahren kann einen Schritt 502 des Erlangens von Bildern und/oder eines 3D-Scans eines Parkraums beinhalten. Dies kann unter Verwendung von Kameras erreicht werden, die an einem Fahrzeug montiert sind. Das Verfahren kann einen Schritt 504 des Generierens eines dreidimensionalen Fahrzeugmodells basierend auf Fahrzeugabmessungen zusammen mit Parkraumabmessungen des Parkraums beinhalten.
  • Das Verfahren kann einen Schritt 506 des selektiven Platzierens des dreidimensionalen Fahrzeugmodells unter Verwendung der Parkraumabmessungen des Parkraums beinhalten. Diese selektive Platzierung kann basierend auf einer Benutzereingabe in eine AR-Vorrichtung erfolgen, die eine AR-Erfahrung darstellt, die das Fahrzeugmodell beinhaltet und in die erlangten Bilder oder die physische Szene des Parkraums eingeblendet wird.
  • Das Verfahren kann ferner einen Schritt 508 des Bestimmens eines Freiraum des Fahrzeugs in Bezug auf ein physisches Objekt benachbart zu dem Parkraum beinhalten, wenn das Fahrzeug während der virtuellen Einparkprozedur virtuell in den Parkraum gefahren wird. Dies kann Vergleichen von Flächen des dreidimensionalen Fahrzeugmodells mit physischen Einschränkungen, die durch das physische Objekt auferlegt werden, wenn das dreidimensionale Fahrzeugmodell die Position ändert, beinhalten. Alternativ beinhaltet das Verfahren einen Schritt 510 des Bestimmens einer vorgeschlagenen Parkposition für das Fahrzeug basierend auf der Kollision. Das Verfahren beinhaltet einen Schritt 512 des Bestimmens einer autonomen Einparkprozedur basierend auf der aktuellen Fahrzeugposition und der gewünschten Parkposition (oder der vorgeschlagenen Parkposition).
  • Umsetzungen der in dieser Schrift offenbarten Systeme, Einrichtungen, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer beinhalten oder verwenden, der Computerhardware beinhaltet, wie zum Beispiel einen oder mehrere von in dieser Schrift behandelten Prozessoren und Systemspeichern. Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die bei Ausführung auf einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Eine Umsetzung der in dieser Schrift offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen.
  • Wenngleich der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifische Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen sind vielmehr als beispielhafte Formen zum Umsetzen der Patentansprüche offenbart.
  • Wenngleich vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele und nicht zur Einschränkung dargestellt worden sind. Der Fachmann auf dem einschlägigen Gebiet wird erkennen, dass daran verschiedene Änderungen bezüglich Form und Detail vorgenommen werden können, ohne von Wesen und Umfang der vorliegenden Offenbarung abzuweichen. Somit sollten Breite und Umfang der vorliegenden Offenbarung durch keine der vorstehend beschriebenen beispielhaften Ausführungsformen eingeschränkt, sondern lediglich in Übereinstimmung mit den folgenden Patentansprüchen und deren Äquivalenten definiert werden. Die vorangehende Beschreibung ist zum Zwecke der Veranschaulichung und Beschreibung dargestellt worden. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die vorliegende Offenbarung nicht auf die exakte offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich. Ferner ist anzumerken, dass eine beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybridumsetzungen der vorliegenden Offenbarung zu bilden. Zum Beispiel können beliebige der unter Bezugnahme auf eine konkrete Vorrichtung oder Komponente beschriebenen Funktionen durch eine andere Vorrichtung oder eine andere Komponente durchgeführt werden. Mit Formulierungen, die konditionale Zusammenhänge ausdrücken, wie unter anderem „kann“ und „könnte“ soll im Allgemeinen vermittelt werden, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte beinhalten könnten, wohingegen andere Ausführungsformen diese nicht beinhalten können, es sei denn, es ist konkret etwas anderes angegeben oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit sollen derartige konditionale Formulierungen im Allgemeinen nicht implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.
  • Gemäß einer Ausführungsform ist der Generator für virtuelle Inhalte dazu konfiguriert, den Benutzer zu warnen, wenn eine Kollision zwischen dem dreidimensionalen Fahrzeugmodell und dem physischen Objekt erkannt wird.
  • Gemäß einer Ausführungsform ist das Modul zum Berechnen und Verhindern von Kollisionen dazu konfiguriert, basierend auf der Kollision eine vorgeschlagene Parkposition für das Fahrzeug zu bestimmen, wobei die vorgeschlagene Parkposition dem Benutzer angezeigt wird.
  • Gemäß einer Ausführungsform ist der Generator für Parkpositionen dazu konfiguriert, aus der aktuellen Fahrzeugposition des Fahrzeugs eine relative Position und Ausrichtung des dreidimensionalen Fahrzeugmodells in der gewünschten Parkposition zu berechnen.
  • Gemäß einer Ausführungsform ist die Fahrzeugplattform dazu konfiguriert, die gewünschte Parkposition zu speichern, um dem Benutzer zu ermöglichen, die gewünschte Parkposition wiederzuverwenden.
  • Gemäß einer Ausführungsform ist die Fahrzeugplattform zu Folgendem konfiguriert: Bestimmen, dass sich das Fahrzeug in dem Parkraum befindet; Abrufen der gewünschten Parkposition, die im Speicher gespeichert ist; und Veranlassen des Fahrzeugs, in der gewünschte Parkposition in dem Parkraum einzuparken.

Claims (15)

  1. Verfahren, umfassend: Bestimmen einer aktuellen Fahrzeugposition und von Fahrzeugabmessungen eines Fahrzeugs; Bestimmen von Parkraumabmessungen eines Parkraums; Empfangen einer gewünschten Parkposition für das Fahrzeug durch eine Augmented-Reality-Schnittstelle, wobei die Augmented-Reality-Schnittstelle ein dreidimensionales Fahrzeugmodell basierend auf den Fahrzeugabmessungen umfasst, das dreidimensionale Fahrzeugmodell auf Bildern oder einer physischen Szene des Parkraums platziert wird und die Augmented-Reality-Schnittstelle dazu konfiguriert ist, einem Benutzer zu ermöglichen, das dreidimensionale Fahrzeugmodell virtuell in dem Parkraum zu platzieren, um die gewünschte Parkposition zu bestimmen; Bestimmen einer virtuellen Einparkprozedur für das Fahrzeug basierend auf der von dem Benutzer ausgewählten gewünschten Parkposition und den Parkraumabmessungen des Parkraums; und Veranlassen, dass das Fahrzeug basierend auf der virtuellen Einparkprozedur autonom einparkt.
  2. Verfahren nach Anspruch 1, wobei die virtuelle Einparkprozedur Bestimmen eines Freiraums des Fahrzeugs in Bezug auf ein physisches Objekt benachbart zu dem Parkraum umfasst, wenn das Fahrzeug während der virtuellen Einparkprozedur virtuell in den Parkraum gefahren wird und virtuell in der gewünschten Parkposition geparkt ist.
  3. Verfahren nach Anspruch 1, ferner umfassend Speichern der gewünschten Parkposition, um dem Benutzer zu ermöglichen, die gewünschte Parkposition wiederzuverwenden.
  4. Verfahren nach Anspruch 1, ferner umfassend Bestimmen einer Anbringung eines Objekts an dem Fahrzeug, wobei die Fahrzeugabmessungen auch Abmessungen des Objekts umfassen.
  5. Verfahren nach Anspruch 4, ferner umfassend Bestimmen eines Begrenzungsrahmens um das Fahrzeug und das Objekt, wobei der Begrenzungsrahmen während der virtuellen Einparkprozedur genutzt wird.
  6. Verfahren nach Anspruch 1, ferner umfassend Generieren des dreidimensionalen Fahrzeugmodells basierend auf den Fahrzeugabmessungen; und Ermöglichen, dass der Benutzer das dreidimensionale Fahrzeugmodell selektiv in dem Parkraum platziert.
  7. System, umfassend: eine Fahrzeugplattform, die einen Prozessor und einen Speicher umfasst, wobei der Prozessor in dem Speicher gespeicherte Anweisungen zu Folgendem ausführt: Bestimmen einer aktuellen Fahrzeugposition und von Fahrzeugabmessungen eines Fahrzeugs; und Empfangen einer gewünschten Parkposition für das Fahrzeug in Bezug auf einen Parkraum durch eine Augmented-Reality-Schnittstelle, wobei die Augmented-Reality-Schnittstelle ein dreidimensionales Fahrzeugmodell basierend auf den Fahrzeugabmessungen umfasst, das dreidimensionale Fahrzeugmodell auf Bildern oder einer physischen Szene des Parkraums platziert wird und die Augmented-Reality-Schnittstelle dazu konfiguriert ist, einem Benutzer zu ermöglichen, das dreidimensionale Fahrzeugmodell selektiv in dem Parkraum zu platzieren, um die gewünschte Parkposition zu bestimmen; und ein automatisches Einparksystem, das dazu konfiguriert ist, zu veranlassen, dass das Fahrzeug basierend auf einer virtuellen Einparkprozedur autonom einparkt.
  8. System nach Anspruch 7, ferner umfassend eine Anbringungserfassungsvorrichtung, die dazu konfiguriert ist, eine Anbringung eines Objekts an dem Fahrzeug zu bestimmen.
  9. System nach Anspruch 8, ferner umfassend eine Sensorplattform, die dazu konfiguriert ist, eine Position und Abmessungen des Objekts zu bestimmen.
  10. System nach Anspruch 9, ferner umfassend eine Augmented-Reality-Vorrichtung, die einen Prozessor und einen Speicher umfasst, wobei der Prozessor in dem Speicher gespeicherte Anweisungen ausführt, um die Fahrzeugabmessungen von der Fahrzeugplattform zu empfangen, wobei die Anweisungen Folgendes umfassen: einen Generator für virtuelle Inhalte, der: Bilder oder einen 3D-Scan des Parkraums erlangt; das dreidimensionale Fahrzeugmodell basierend auf den Fahrzeugabmessungen generiert; und Parkraumabmessungen des Parkraums bestimmt; einen Manipulator für virtuelle Inhalte, der dem Benutzer ermöglicht, das dreidimensionale Fahrzeugmodell unter Verwendung der Parkraumabmessungen des Parkraums selektiv zu platzieren; ein Modul zum Berechnen und Verhindern von Kollisionen, das einen Freiraum des Fahrzeugs in Bezug auf ein physisches Objekt benachbart zu dem Parkraum bestimmt, wenn das Fahrzeug während der virtuellen Einparkprozedur virtuell in den Parkraum gefahren wird; ein Modul zur virtuellen Registrierung und Wiedergabe von Anzeigen, das eine Augmented-Reality-Anzeige generiert, die das dreidimensionale Fahrzeugmodell relativ zu dem Parkraum beinhaltet; und einen Generator für Parkpositionen, der die gewünschte Parkposition für das Fahrzeug bestimmt, wobei die gewünschte Parkposition an die Fahrzeugplattform übertragen wird.
  11. System nach Anspruch 10, wobei das automatische Einparksystem zu Folgendem konfiguriert ist: Empfangen der gewünschten Parkposition; Bestimmen einer autonomen Einparkprozedur basierend auf der aktuellen Fahrzeugposition und der gewünschten Parkposition; und Ausführen der autonomen Einparkprozedur, um das Fahrzeug in die gewünschte Parkposition einzuparken.
  12. System nach Anspruch 10, wobei das dreidimensionale Fahrzeugmodell die Abmessungen des Zubehörteils in Kombination mit den Fahrzeugabmessungen beinhaltet.
  13. System nach Anspruch 12, wobei die Abmessungen des Zubehörteils als ein Begrenzungsrahmen in Kombination mit dem dreidimensionalen Fahrzeugmodell dargestellt werden.
  14. System nach Anspruch 10, wobei das Modul zum Berechnen und Verhindern von Kollisionen den Freiraum bestimmt, indem Flächen des dreidimensionalen Fahrzeugmodells mit physischen Einschränkungen verglichen werden, die durch das physische Objekt auferlegt werden, wenn das dreidimensionale Fahrzeugmodell die Position ändert.
  15. System nach Anspruch 14, wobei die Sensorplattform des Fahrzeugs das physische Objekt scannt, um die physischen Einschränkungen zu bestimmen.
DE102022123948.9A 2021-09-28 2022-09-19 Systeme und verfahren zur virtuellen fahrzeugeinparkhilfe Pending DE102022123948A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/487,694 US11794726B2 (en) 2021-09-28 2021-09-28 Systems and methods for virtual vehicle parking assistance background
US17/487,694 2021-09-28

Publications (1)

Publication Number Publication Date
DE102022123948A1 true DE102022123948A1 (de) 2023-03-30

Family

ID=85477455

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022123948.9A Pending DE102022123948A1 (de) 2021-09-28 2022-09-19 Systeme und verfahren zur virtuellen fahrzeugeinparkhilfe

Country Status (3)

Country Link
US (1) US11794726B2 (de)
CN (1) CN115880943A (de)
DE (1) DE102022123948A1 (de)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9761139B2 (en) * 2012-12-20 2017-09-12 Wal-Mart Stores, Inc. Location based parking management system
KR102153030B1 (ko) * 2013-11-05 2020-09-07 현대모비스 주식회사 주차 지원 장치 및 방법
MX2018004708A (es) * 2015-10-22 2018-06-18 Nissan Motor Metodo y dispositivo de deteccion de linea del espacio de estacionamiento.
US10442464B2 (en) * 2016-03-18 2019-10-15 Kyocera Corporation Parking assistance apparatus, on-vehicle camera, vehicle, and parking assistance method
KR20180037414A (ko) 2016-10-04 2018-04-12 엘지전자 주식회사 자동주차 보조장치 및 이를 포함하는 차량
KR101979694B1 (ko) 2016-11-04 2019-05-17 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 그의 제어방법
US10481609B2 (en) 2016-12-09 2019-11-19 Ford Global Technologies, Llc Parking-lot-navigation system and method
US10268201B2 (en) * 2017-02-28 2019-04-23 Mitsubishi Electric Research Laboratories, Inc. Vehicle automated parking system and method
DE102017215519A1 (de) * 2017-09-05 2019-03-07 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kollisionserkennung für ein Fahrzeug
US10732622B2 (en) * 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
CN110654375A (zh) * 2018-06-29 2020-01-07 比亚迪股份有限公司 自动泊车方法、装置、***及车辆
EP3938983A1 (de) * 2019-03-13 2022-01-19 Starship Technologies OÜ Vorrichtung, system und verfahren für aufbewahrung, transport und lieferung modularer artikel
CN112824183A (zh) * 2019-11-20 2021-05-21 华为技术有限公司 一种自动泊车交互方法及装置
CN112249005B (zh) * 2020-10-23 2021-10-12 广州小鹏汽车科技有限公司 一种车辆自动泊车的交互方法和装置
DE102021204841A1 (de) * 2021-05-12 2022-11-17 Hyundai Motor Company Frachtdetektionssystem und Verfahren zum Detektieren von überhängender Fracht an einem Kraftfahrzeug

Also Published As

Publication number Publication date
CN115880943A (zh) 2023-03-31
US20230102144A1 (en) 2023-03-30
US11794726B2 (en) 2023-10-24

Similar Documents

Publication Publication Date Title
CN112965504B (zh) 基于自动驾驶的远程确认方法、装置、设备及存储介质
DE102019112175A1 (de) Verzerrungskorrektur für fahrzeug-surround-view-kamera-projektionen
DE102019220048A1 (de) Autonomes führen eines fahrzeugs zu einer gewünschten, mit einer fernvorrichtung ausgewählten parkposition
DE102017111530A1 (de) Systeme und Verfahren für ein Zugfahrzeug und einen Anhänger mit Rundumsichtbildgeräten
DE102018121019A1 (de) Erweitern von realen sensoraufzeichnungen mit simulierten sensordaten
DE102019124152A1 (de) Kupplungsunterstützungssystem
DE102020103455A1 (de) Verfahren und system zur ausführung einer zusammengesetzten verhaltensrichtlinie für ein autonomes fahrzeug
DE102018114730A1 (de) Verfahren und Vorrichtung zum Schätzen eines Gelenkwinkels
DE112017001322T5 (de) Signalverarbeitungsvorrichtung und Signalverarbeitungsverfahren
DE102017102133A1 (de) Längsparkhilfe
EP2805183A1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
CN113085900B (zh) 一种实现对车辆进行召唤行驶到用户位置的方法
DE102019131942A1 (de) Umfeldüberwachungseinrichtung
CN112492522B (zh) 一种用于车辆自主泊车的控制方法
DE102018220279A1 (de) Bildgebungsapparat und verfahren
DE112017005385T5 (de) Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren
DE112021001882T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm
CN114913506A (zh) 一种基于多视角融合的3d目标检测方法及装置
DE102019215334A1 (de) Fahrerloses Transportfahrzeug für die innerbetriebliche Warenlogistik und Steuerverfahren
KR102232276B1 (ko) 트레일러 트럭용 어라운드 뷰 영상 제공 장치 및 방법
DE102020126806A1 (de) Ein system und verfahren zum frachtmanagement in einem kraftfahrzeug
CN115273525A (zh) 一种停车位映射显示方法和***
CN115134537A (zh) 一种图像处理方法、装置及车辆
DE102018133030A1 (de) Fahrzeugfernsteuerungsvorrichtung und fahrzeugfernsteuerungsverfahren
CN116385528B (zh) 标注信息的生成方法、装置、电子设备、车辆及存储介质

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: ETL IP PATENTANWALTSGESELLSCHAFT MBH, DE

Representative=s name: ETL IP PATENT- UND RECHTSANWALTSGESELLSCHAFT M, DE