WO2023093952A1 - Verfahren, computerprogramm und vorrichtung zum steuern einer augmented-reality-anzeigevorrichtung - Google Patents

Verfahren, computerprogramm und vorrichtung zum steuern einer augmented-reality-anzeigevorrichtung Download PDF

Info

Publication number
WO2023093952A1
WO2023093952A1 PCT/DE2022/200274 DE2022200274W WO2023093952A1 WO 2023093952 A1 WO2023093952 A1 WO 2023093952A1 DE 2022200274 W DE2022200274 W DE 2022200274W WO 2023093952 A1 WO2023093952 A1 WO 2023093952A1
Authority
WO
WIPO (PCT)
Prior art keywords
augmented reality
display device
reality display
vehicle
displayed
Prior art date
Application number
PCT/DE2022/200274
Other languages
English (en)
French (fr)
Inventor
Marko ZÜHLSDORF
Eugen Vetsch
Original Assignee
Continental Automotive Technologies GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive Technologies GmbH filed Critical Continental Automotive Technologies GmbH
Publication of WO2023093952A1 publication Critical patent/WO2023093952A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1868Displaying information according to relevancy according to driving situations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/595Data transfer involving internal databases
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle

Definitions

  • the present invention relates to a method, a computer program with instructions and a device for controlling an augmented reality display device.
  • the invention also relates to an augmented reality display device that uses such a device or such a method.
  • Such augmented reality display devices can be used, for example, for a head-up display for a vehicle.
  • a head-up display also referred to as a HUD, is understood to mean a display system in which the viewer can maintain his line of sight since the content to be displayed is displayed in his field of vision. While such systems were originally used mainly in the aviation sector due to their complexity and costs, they are now also being installed in large series in the automotive sector.
  • Head-up displays generally include an imaging unit or PGU (Picture Generating Unit), an optics unit, and a mirror unit.
  • the imaging unit generates the image and uses at least one display element for this purpose.
  • the optics unit directs the image to the mirror unit.
  • the mirror unit is a partially reflective, translucent disc. The viewer thus sees the content displayed by the imaging unit as a virtual image and at the same time the real world behind the pane. In the automotive sector, the windshield is often used as a mirror unit, and its curved shape must be taken into account in the display. Due to the interaction of the optics unit and the mirror unit, the virtual image is an enlarged representation of the image generated by the imaging unit.
  • the imaging unit and the optics unit are usually covered by a housing with a transparent Cover demarcated against the environment.
  • a liquid crystal display LCD: Liquid Crystal Display
  • a lighting unit for the imaging unit is currently usually used for head-up displays.
  • the viewer can only look at the virtual image from the position of the so-called eyebox.
  • An area is referred to as an eyebox, the height and width of which corresponds to a theoretical viewing window.
  • an eyebox the height and width of which corresponds to a theoretical viewing window.
  • the eyebox As long as one eye of the viewer is within the eyebox, all elements of the virtual image are visible to the eye. If, on the other hand, the eye is outside of the eyebox, the virtual image is only partially or not at all visible to the viewer.
  • the larger the eyebox the less restricted the viewer is when choosing his seating position. Due to the design, the size of the eyebox is limited by the limitations of the light path in the device and in the installation slot. Under the structural conditions, the eyebox is usually designed so that it can be tracked vertically in order to adapt to viewers in different seating positions. Adjusting one of the mirrors in the head-up display is usually used to adjust the position of the eyebox.
  • a large and static eyebox is used from which the viewer can see the virtual image.
  • EP 3 128 357 A2 describes a display device with a display panel that provides an image with driving information, a concave mirror that reflects the image onto a windshield to generate a virtual image for a driver, a detection unit that detects a position of the driver , a drive unit that moves the concave mirror, and a control unit.
  • the control unit controls the drive unit to move the concave mirror to move an eyebox when the detection unit detects a change in the driver's position.
  • a key feature of augmented reality head-up displays is the ability to augment an area of the vehicle's surroundings using the head-up display's display content. In particular, for example, the road ahead is overlaid with navigation symbols.
  • the width of the surrounding area that can be augmented is defined by the size of the virtual image, which in conventional head-up displays that use mirrors is determined by the width of the built-in aspherical mirror.
  • the size of the aspherical mirror and thus the image size is usually limited by the space requirements in the vehicle. Especially when cornering, but also on multi-lane motorways, part or even the entire road falls outside the augmentation area of the head-up display, which means that the main functions of the augmented reality head-up display cannot be used in these cases.
  • a method for controlling an augmented reality display device comprises the steps:
  • a computer program includes instructions that, when executed by a computer, cause the computer to perform the following steps to control an augmented reality display device:
  • the term computer is to be understood broadly. In particular, it also includes control units, embedded systems and other processor-based data processing devices.
  • the computer program can be provided for electronic retrieval, for example, or it can be stored on a computer-readable storage medium.
  • a device for controlling an augmented reality display device has:
  • an evaluation module for determining whether there is a driving situation with a need for action, in which a display of augmented reality information at the edge or outside of an augmentation area of the augmented reality display device may be necessary; and - A control module for adjusting a position of the augmentation area in relation to an observer such that the augmented reality information to be displayed can be displayed within the augmentation area.
  • a position of the augmentation area is shifted horizontally depending on the situation in such a way that augmented reality information to be displayed lies within the available augmentation area.
  • parts of the road that are further to the outside can also be augmented in the display area of the augmented reality display device without an enlarged augmentation area having to be implemented for this.
  • the presence of a driving situation requiring action is determined when cornering is imminent or taking place.
  • cornering it is to be expected that important augmented reality information can be expected along the course of the curve. Therefore, the augmentation area is adjusted accordingly. This occurs regardless of whether the driver is already looking there.
  • this has the advantage that moving the augmentation area encourages the driver to look in the direction in which important augmented reality information is to be expected. For example, the driver unconsciously turns his gaze to the left when augmented reality elements appear on the left that he only perceives at the edge of his field of vision.
  • cornering is determined from data from an acceleration sensor, from data from an environment sensor system, or from map data.
  • Lateral acceleration of the vehicle indicates cornering.
  • vehicles with an augmented reality display device necessarily require an inertial measuring unit that includes inertial sensors such as acceleration sensors and yaw rate sensors. These can also be used for horizontal tracking of the augmentation area.
  • the lateral vehicle movements, in particular yawing movements are relatively low-frequency during normal driving maneuvers and can be detected with the inertial measuring unit and passed on via a logic to an adjustment unit for the horizontal tracking of the augmentation area.
  • the steering wheel lock can also be detected by sensors. This takes place shortly before the wheels deflect in the direction of the curve. This makes it possible to anticipate an upcoming cornering.
  • cornering can also be determined from data from an environment sensor system. For example, cornering can be derived from images from a camera by evaluating a curvature of the lane markings. Map data also indicates an upcoming curve and allows the augmentation area to be shifted according to the expected curve.
  • the presence of a driving situation with a need for action is determined if augmented reality information is to be displayed in a lane at a distance from a current lane.
  • augmented reality information is displayed in a lane spaced apart from a current lane when the vehicle is about to change lanes or a vehicle driving ahead is changing lanes. It can be recognized from navigation data or map information that there are multiple lanes and turning information would have to be displayed in a parallel lane that is further away from the current lane. If necessary, the augmentation area is shifted in such a way that even before the lane change of the Vehicle augmented reality information can also be displayed on this parallel lane. In vehicles with adaptive cruise control (ACC), a vehicle in front is automatically followed or a corresponding distance is maintained. To clarify the automated following, the vehicle driving ahead can be augmented by the augmented reality display device.
  • ACC adaptive cruise control
  • augmented reality information to be displayed is outside the current augmentation area.
  • the augmentation area can then be tracked accordingly.
  • Another application of augmented reality is the indication of side traffic, e.g. at an intersection. This could currently only be done with directional arrows, since the augmentation area does not extend far enough to the right or left.
  • dangerous situations can be pointed out earlier, for example a cyclist in a side street or a pedestrian at a zebra crossing. This increases the safety of the people involved.
  • the adjustment of the position of the augmentation area includes a tilting of a curved mirror of the augmented reality display device about a vertical axis.
  • a simple way to adjust the position of the augmentation region is to horizontally tilt a curved mirror in the optical path of the display device.
  • the axis of rotation is essentially parallel to the z-axis of the vehicle.
  • the curved mirror does not need the size that would normally result from projecting the entire virtual image onto the curved mirror.
  • the dynamic width of the virtual image is thus decoupled from installation space requirements and results from the rotational path of the curved mirror.
  • the eyebox in which the virtual image is displayed to the driver also shifts. It shifts in the opposite direction as the virtual image, typically pivoting just short of the windshield on the roadside. Due to the leverage and the long projection path, which is generally present in particular in the case of an augmented reality head-up display, a small displacement of the eyebox results in a relatively large displacement of the virtual image in the opposite direction. This small displacement of the eyebox can usually be easily compensated for by the driver. In particular when cornering, ie one of the applications of the invention, body and head are anyway pushed in the opposite direction by the force of inertia and thus in the same direction as the eyebox.
  • An augmented reality display device is preferably used in a head-up display, e.g. a head-up display for a motor vehicle.
  • FIG. 1 schematically shows a head-up display according to the prior art for a motor vehicle
  • FIG. 2 schematically shows a head-up display with an augmented reality display device according to the invention
  • 3 illustrates an adaptation of an augmentation region to cornering
  • FIG. 4 schematically shows a vehicle with a head-up display that uses an augmented reality display device according to the invention
  • FIG. 5 schematically shows a method for controlling an augmented reality display device of a vehicle
  • FIG. 6 schematically shows a first embodiment of a device for controlling an augmented reality display device of a vehicle
  • FIG. 7 schematically shows a second embodiment of a device for controlling an augmented reality display device of a vehicle.
  • FIG. 1 shows a basic sketch of a head-up display according to the prior art for a motor vehicle.
  • the head-up display has a display device 1 with an imaging unit 10 and an optical unit 12 .
  • a beam of rays SB1 emanates from a display element 11 and is reflected by a folding mirror 21 onto a curved mirror 22 which reflects it in the direction of a mirror unit 2 .
  • the mirror unit 2 is shown here as a windshield 20 of the motor vehicle. From there, the bundle of rays SB2 arrives in the direction of an eye of an observer 3.
  • the viewer 3 sees a virtual image VB, which is located outside the motor vehicle above the hood or even in front of the motor vehicle.
  • the virtual image VB is an enlarged representation of the image displayed by the display element 11 due to the interaction of the optics unit 12 and the mirror unit 2 .
  • a speed limit, the current vehicle speed and navigation instructions are shown here symbolically.
  • the eye of the viewer 3 is within an eye box 4 indicated by a rectangle, all elements of the virtual image VB are visible to the viewer 3 . If the eye of the viewer 3 is outside of the eyebox 4, then the virtual image VB is only partially visible to the viewer 3 or not at all. The larger the Eyebox 4 is, the less restricted the viewer is when choosing his seating position.
  • the curvature of the curved mirror 22 matches the curvature of the windshield 20 and ensures that the image distortion is stable across the entire eyebox 4.
  • the curved mirror 22 is rotatably mounted about a horizontal axis by means of a bearing 221 .
  • the rotation of the curved mirror 22 made possible by this enables the eyebox 4 to be moved and thus the position of the eyebox 4 to be adjusted to the position of the viewer 3.
  • the folding mirror 21 serves to ensure that the path covered by the beam of rays SB1 between the display element 11 and the curved mirror 22 is long, and at the same time the optics unit 12 is still compact.
  • the imaging unit 10 and the optics unit 12 are delimited from the environment by a housing 13 with a transparent cover 23 .
  • the optical elements of the optical unit 12 are thus protected, for example, against dust located in the interior of the vehicle.
  • An optical film or a polarizer 24 can also be located on the cover 23 .
  • a glare shield 25 serves to surely absorb the light reflected through the boundary surface of the cover 23 so as not to cause glare to the viewer.
  • the light from another interfering light source 5 can also reach the display element 11 .
  • the polarizer 24 allows to reduce incident sunlight SL.
  • FIG. 2 schematically shows a head-up display with an augmented reality display device 1 according to the invention.
  • the head-up display largely corresponds to the head-up display from FIG. 1 , but in this case the curved mirror 22 can also be rotated about a vertical axis 222 .
  • a motor 14, for example a linear stepper motor, is used to adjust the curved mirror 22 about the vertical axis 222.
  • the motor 14 receives corresponding control commands SB from a device 50 for controlling the augmented reality display device 1 .
  • FIG. 3 illustrates an adaptation of an augmentation region 15 to cornering of a vehicle 40.
  • the rotatable curved mirror 22 is in a central position.
  • the associated augmentation area 15, in which a virtual image VB can be displayed, is located centrally in front of the driver.
  • the eyebox 4 is accordingly centered on the driver.
  • the curved mirror 22 is tilted slightly about a vertical axis 222 by means of a motor.
  • the augmentation area 15 and the eyebox 4 move in opposite directions.
  • the augmentation area 15 is shifted to the right, the eyebox 4 to the left.
  • a significantly enlarged virtual field of view 16 can be covered.
  • the displacement is exaggerated in Fig. 3 for clarity.
  • FIG. 4 schematically shows a vehicle 40 in which a solution according to the invention is implemented.
  • the vehicle 40 is a motor vehicle.
  • the motor vehicle has an augmented reality display device 1 according to the invention, which in this case is part of a head-up display.
  • the augmented reality display device 1 makes it possible to display augmented reality information I.
  • the augmented reality display device 1 is controlled by a device 50 .
  • a sensor system 41 can be used, for example, to collect data about the vehicle environment.
  • the sensor system 41 can in particular include sensors for detecting the surroundings, e.g.
  • Ultrasonic sensors laser scanners, radar sensors, lidar sensors or cameras.
  • the information recorded by the sensors 41 can be used to generate content to be displayed for the head-up display.
  • Accelerations of the motor vehicle can be detected with an acceleration sensor 42 . Cornering of the motor vehicle can be determined from the accelerations detected by acceleration sensor 42 .
  • Other components of the motor vehicle are in this example a navigation system 43, through which position information can be provided, and a data transmission unit 44.
  • the data transmission unit 44 can be used, for example, to establish a connection to a backend, for example to obtain updated software for components of the motor vehicle.
  • a memory 45 is provided for storing data. The exchange of data between the various components of the motor vehicle takes place via a network 46.
  • FIG. 5 schematically shows a method for controlling an augmented reality display device of a vehicle.
  • a driving situation of the vehicle are recorded S1.
  • S2 it is determined S2 whether there is a driving situation with a need for action, in which it may be necessary to display augmented reality information at the edge or outside an augmentation area of the augmented reality display device.
  • This is the case, for example, when cornering is imminent or taking place, which can be determined from data from an acceleration sensor, from data from an environment sensor system, or from map data.
  • This can also be the case if, for example, a road user on the side is detected on the basis of data from the surroundings sensors.
  • data from a camera, a lidar sensor or a radar sensor can be evaluated for this purpose.
  • FIG. 6 shows a simplified schematic illustration of a first specific embodiment of a device 50 for controlling an augmented reality display device 1 of a vehicle.
  • the device 50 has an input 51 via which, for example, data BD from an acceleration sensor 42, data UD from an environment sensor system 41 or map data KD can be received.
  • An evaluation module 52 is set up to determine on the basis of the received data whether there is a driving situation that requires action and in which augmented reality information may need to be displayed at the edge or outside an augmentation area of the augmented reality display device 1 . This is the case, for example, when cornering is imminent or taking place, which can be determined from data BD from acceleration sensor 42, from data UD from environment sensors 41, or from map data KD.
  • a driving situation with a need for action can also exist if augmented reality information is to be displayed in a lane adjacent to a current lane.
  • a control module 53 is set up to adjust a position of the augmentation area in relation to an observer in such a way that the augmented reality information to be displayed can be displayed within the augmentation area.
  • the control module 53 can output a corresponding control command SB to the augmented reality display device 1 via an output 56 of the device 50 .
  • a curved mirror of the augmented reality display device 1 can be tilted about a vertical axis.
  • the device 50 is shown as an independent component. Of course, it can also be integrated into the augmented reality display device 1, into a central vehicle computer or into another component.
  • the evaluation module 52 and the control module 53 can be controlled by a control module 54 . If necessary, settings of the evaluation module 52, the control module 53 or the control module 54 can be changed via a user interface 57. If required, the data generated in the device 50 can be stored in a memory 55 of the device 50, for example for later evaluation or for use by the components of the device 50.
  • the evaluation module 52, the control module 53 and the control module 54 can be used as dedicated Be realized hardware, for example as integrated circuits. Of course, they can also be partially or fully combined or implemented as software running on a suitable processor, such as a GPU or a CPU.
  • the input 51 and the output 56 can be implemented as separate interfaces or as a combined interface.
  • FIG. 7 shows a simplified schematic representation of a second specific embodiment of a device 60 for controlling an augmented reality display device of a vehicle.
  • the device 60 has a processor 62 and a memory 61 .
  • the device 60 is a control unit or an embedded system. Instructions are stored in the memory 61 which, when executed by the processor 62, cause the device 60 to carry out the steps according to one of the methods described.
  • the instructions stored in the memory 61 thus embody a program which can be executed by the processor 62 and implements the method according to the invention.
  • Device 60 has an input 63 for receiving information. Data generated by the processor 62 is provided via an output 64 . In addition, they can be stored in memory 61.
  • the input 63 and the output 64 can be combined to form a bidirectional interface.
  • Processor 62 may include one or more processing units, such as microprocessors, digital signal processors, or combinations thereof.
  • the memories 55, 61 of the devices described can have both volatile and non-volatile memory areas and can include a wide variety of memory devices and storage media, for example hard disks, optical storage media or semiconductor memories.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogramm mit Instruktionen und eine Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung. Die Erfindung betrifft zudem eine Augmented-Reality-Anzeigevorrichtung, die eine solche Vorrichtung oder ein solches Verfahren nutzt. In einem ersten Schritt werden Daten zu einer Fahrsituation des Fahrzeugs erfasst (S1). Basierend auf diesen Daten wird ermittelt (S2), ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb einer Eyebox der Augmented-Reality-Anzeigevorrichtung erforderlich werden kann. Eine Position der Eyebox wird dann derart in Bezug auf einen Betrachter angepasst (S3), dass die darzustellenden Augmented-Reality-Informationen innerhalb der Eyebox darstellbar sind.

Description

Beschreibung
Verfahren, Computerprogramm und Vorrichtung zum Steuern einer Augmented- Reality-Anzeigevorrichtung
Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogramm mit Instruktionen und eine Vorrichtung zum Steuern einer Augmented-Reality- Anzeigevorrichtung. Die Erfindung betrifft zudem eine Augmented-Reality- Anzeigevorrichtung, die eine solche Vorrichtung oder ein solches Verfahren nutzt.
Derartige Augmented-Reality-Anzeigevorrichtungen können beispielsweise für ein Head-Up-Display für ein Fahrzeug verwendet werden. Unter einem Head-Up- Display, auch als HUD bezeichnet, wird ein Anzeigesystem verstanden, bei dem der Betrachter seine Blickrichtung beibehalten kann, da die darzustellenden Inhalte in sein Sichtfeld eingeblendet werden. Während derartige Systeme aufgrund ihrer Komplexität und Kosten ursprünglich vorwiegend im Bereich der Luftfahrt Verwendung fanden, werden sie inzwischen auch im Automobilbereich in Großserie verbaut.
Head-Up-Displays umfassen im Allgemeinen eine bildgebende Einheit oder PGU (Picture Generating Unit), eine Optikeinheit und eine Spiegeleinheit. Die bildgebende Einheit erzeugt das Bild und nutzt dazu zumindest ein Anzeigeelement. Die Optikeinheit leitet das Bild auf die Spiegeleinheit. Die Spiegeleinheit ist eine teilweise spiegelnde, lichtdurchlässige Scheibe. Der Betrachter sieht also die von der bildgebenden Einheit dargestellten Inhalte als virtuelles Bild und gleichzeitig die reale Welt hinter der Scheibe. Als Spiegeleinheit dient im Automobilbereich oftmals die Windschutzscheibe, deren gekrümmte Form bei der Darstellung berücksichtigt werden muss. Durch das Zusammenwirken von Optikeinheit und Spiegeleinheit ist das virtuelle Bild eine vergrößerte Darstellung des von der bildgebenden Einheit erzeugten Bildes. Die bildgebende Einheit und die Optikeinheit werden in der Regel durch ein Gehäuse mit einer transparenten Abdeckung gegen die Umgebung abgegrenzt. Für Head-Up-Displays wird derzeit üblicherweise eine Flüssigkristallanzeige (LCD: Liquid Crystal Display) mit einer Beleuchtungseinheit für die bildgebende Einheit genutzt.
Der Betrachter kann das virtuelle Bild nur aus der Position der sogenannten Eyebox betrachten. Als Eyebox wird ein Bereich bezeichnet, dessen Höhe und Breite einem theoretischen Sichtfenster entspricht. So lange sich ein Auge des Betrachters innerhalb der Eyebox befindet, sind alle Elemente des virtuellen Bildes für das Auge sichtbar. Befindet sich das Auge hingegen außerhalb der Eyebox, so ist das virtuelle Bild für den Betrachter nur noch teilweise oder gar nicht sichtbar. Je größer die Eyebox ist, desto weniger eingeschränkt ist der Betrachter somit bei der Wahl seiner Sitzposition. Die Größe der Eyebox wird konstruktionsbedingt eingeschränkt durch Begrenzungen des Lichtpfades im Gerät und im Einbauschacht. Unter den konstruktiven Gegebenheiten wird in der Regel die Eyebox zur Anpassung an Betrachter in unterschiedlichen Sitzpositionen vertikal nachführbar ausgelegt. Für die Anpassung der Position der Eyebox wird üblicherweise eine Verstellung eines der Spiegel im Head-Up-Display eingesetzt.
In manchen Fällen, z.B. für Augmented-Reality-Anwendungen oder aus Komfortgründen, wird eine große und statische Eyebox verwendet, aus der der Betrachter das virtuelle Bild sehen kann.
Vor diesem Hintergrund beschreibt EP 3 128 357 A2 eine Anzeigevorrichtung mit einem Anzeigepanel, das ein Bild mit Fahrinformationen liefert, einem Hohlspiegel, der das Bild zum Generieren eines virtuellen Bildes für einen Fahrer auf eine Windschutzscheibe reflektiert, einer Erfassungseinheit, die eine Position des Fahrers erfasst, einer Antriebseinheit, die den Hohlspiegel bewegt, und einer Steuereinheit. Die Steuereinheit steuert die Antriebseinheit so, dass der Hohlspiegel bewegt wird, um eine Eyebox zu bewegen, wenn die Erfassungseinheit eine Veränderung der Position des Fahrers erfasst. Ein wesentliches Merkmal von Augmented-Reality-Head-Up-Displays ist die Fähigkeit, einen Bereich der Fahrzeugumgebung mittels der Anzeigeinhalte des Head-Up-Displays zu augmentieren. Insbesondere wird beispielsweise die vorausliegende Straße mit Navigationssymbolen überlagert. Die Breite des augmentierbaren Umgebungsbereichs ist definiert durch die Größe des virtuellen Bildes, welches bei konventionellen Head-Up-Displays, die Spiegel verwenden, durch die Breite des verbauten asphärischen Spiegels bestimmt ist.
Die Größe des asphärischen Spiegels und damit die Bildgröße ist in der Regel durch Bauraumvorgaben im Fahrzeug limitiert. Speziell in Kurvenfahrten, aber auch auf mehrspurigen Autobahnen, fällt ein Teil oder sogar die komplette Straße aus dem Augmentierungsbereich des Head-Up-Displays heraus, womit die Hauptfunktionen des Augmented-Reality-Head-Up-Displays in diesen Fällen nicht genutzt werden können.
Es ist eine Aufgabe der vorliegenden Erfindung, verbesserte Lösungen zum Steuern einer Augmented-Reality-Anzeigevorrichtung bereitzustellen.
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 , durch ein Computerprogramm mit Instruktionen mit den Merkmalen des Anspruchs 7, durch eine Vorrichtung mit den Merkmalen des Anspruchs 8 sowie durch eine Anzeigevorrichtung mit den Merkmalen des Anspruchs 9 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
Gemäß einem ersten Aspekt der Erfindung umfasst ein Verfahren zum Steuern einer Augmented-Reality-Anzeigevorrichtung die Schritte:
- Ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality-Anzeigevorrichtung erforderlich werden kann; und - Anpassen einer Position des Augmentierungsbereichs in Bezug auf einen Betrachter derart, dass die darzustellenden Augmented-Reality-Informationen innerhalb des Augmentierungsbereichs darstellbar sind.
Gemäß einem weiteren Aspekt der Erfindung umfasst ein Computerprogramm Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der folgenden Schritte zum Steuern einer Augmented-Reality- Anzeigevorrichtung veranlassen:
- Ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality-Anzeigevorrichtung erforderlich werden kann; und
- Anpassen einer Position des Augmentierungsbereichs in Bezug auf einen Betrachter derart, dass die darzustellenden Augmented-Reality-Informationen innerhalb des Augmentierungsbereichs darstellbar sind.
Der Begriff Computer ist dabei breit zu verstehen. Insbesondere umfasst er auch Steuergeräte, eingebettete Systeme und andere prozessorbasierte Datenverarbeitungsvorrichtungen.
Das Computerprogramm kann beispielsweise für einen elektronischen Abruf bereitgestellt werden oder auf einem computerlesbaren Speichermedium gespeichert sein.
Gemäß einem weiteren Aspekt der Erfindung weist eine Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung auf:
- ein Auswertemodul zum Ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality- Anzeigevorrichtung erforderlich werden kann; und - ein Steuermodul zum Anpassen einer Position des Augmentierungsbereichs in Bezug auf einen Betrachter derart, dass die darzustellenden Augmented-Reality- Informationen innerhalb des Augmentierungsbereichs darstellbar sind.
Bei der erfindungsgemäßen Lösung wird eine Position des Augmentierungsbereichs situationsabhängig horizontal so verschoben, dass darzustellende Augmented-Reality-Informationen innerhalb des zur Verfügung stehenden Augmentierungsbereich liegen. Ähnlich wie bei einem Kurvenlicht können so auch weiter außen liegende Teile der Straße im Anzeigebereich der Augmented-Reality-Anzeigevorrichtung augmentiert werden, ohne dass dafür ein vergrößerter Augmentierungsbereich realisiert werden muss.
Gemäß einem Aspekt der Erfindung wird das Vorliegen einer Fahrsituation mit Handlungsbedarf ermittelt, wenn eine Kurvenfahrt bevorsteht oder stattfindet. Bei einer Kurvenfahrt ist zu erwarten, dass wichtige Augmented-Reality-Informationen entlang dem Verlauf der Kurve zu erwarten sind. Daher wird der Augmentierungsbereich entsprechend angepasst. Dies erfolgt unabhängig davon, ob der Fahrer bereits dorthin schaut. Dies hat zugleich den Vorteil, dass der Fahrer durch das Verschieben des Augmentierungsbereichs dazu animiert wird, in die Richtung zu schauen, in der wichtige Augmented-Reality-Informationen zu erwarten sind. Der Fahrer wendet seinen Blick z.B. unbewusst nach links, wenn links Augmented-Reality-Elemente auftauchen, die er nur am Rande seines Sichtfeldes wahrnimmt.
Gemäß einem Aspekt der Erfindung wird eine Kurvenfahrt aus Daten eines Beschleunigungssensors, aus Daten einer Umfeldsensorik oder aus Kartendaten ermittelt. Eine seitliche Beschleunigung des Fahrzeugs deutet auf eine Kurvenfahrt hin. Fahrzeuge mit einer Augmented-Reality-Anzeigevorrichtung benötigen ohnehin zwingend eine inertiale Messeinheit, die Inertialsensoren wie Beschleunigungssensoren und Drehratensensoren umfasst. Diese können ebenso für die horizontale Nachführung des Augmentierungsbereichs verwendet werden. Die lateralen Fahrzeugbewegungen, insbesondere Gierbewegungen, sind bei normalen Fahrmanövern relativ niederfrequent und können mit der inertialen Messeinheit erfasst werden und über eine Logik an eine Verstelleinheit für die horizontale Nachführung des Augmentierungsbereichs weitergegeben werden. Zudem kann auch der Lenkradeinschlag von Sensoren erfasst werden. Dieser erfolgt kurz bevor die Räder in die Kurvenrichtung ausschlagen. Dies erlaubt es, eine bevorstehende Kurvenfahrt zu antizipieren. Kurvenfahrten lassen sich aber alternativ auch aus Daten einer Umfeldsensorik ermitteln. Beispielsweise können Kurvenfahrten aus Bildern einer Kamera abgeleitet werden, indem eine Krümmung der Fahrbahnmarkierungen ausgewertet wird. Auch Kartendaten zeigen eine bevorstehende Kurve an und erlauben eine Verschiebung des Augmentierungsbereichs entsprechend der erwarteten Kurve.
Gemäß einem Aspekt der Erfindung wird das Vorliegen einer Fahrsituation mit Handlungsbedarf ermittelt, wenn eine Darstellung von Augmented-Reality- Informationen auf einer von einer aktuellen Fahrspur beabstandeten Fahrspur erfolgen soll. In verschiedenen Fahrsituationen kann es wünschenswert sein, auf einer weiter von der aktuellen Fahrspur entfernt gelegenen Parallelspur Augmented-Reality-Informationen anzuzeigen. Sofern diese Parallelspur aktuell nicht vom Augmentierungsbereich erfasst ist, wird der Augmentierungsbereich so verschoben, dass Augmented-Reality-Informationen auf der gewünschten Parallelspur angezeigt werden können.
Gemäß einem Aspekt der Erfindung erfolgt eine Darstellung von Augmented- Reality-Informationen auf einer von einer aktuellen Fahrspur beabstandeten Fahrspur, wenn ein Spurwechsel des Fahrzeugs ansteht oder ein Spurwechsel eines vorausfahrenden Fahrzeugs erfolgt. Aus Navigationsdaten oder Karteninformationen kann erkannt werden, dass mehrere Fahrspuren vorhanden sind und Abbiegeinformationen auf einer weiter von der aktuellen Fahrspur entfernt gelegenen Parallelspur anzuzeigen wären. Der Augmentierungsbereich wird daher bei Bedarf so verschoben, dass bereits vor dem Spurwechsel des Fahrzeugs auch auf dieser Parallelspur Augmented-Reality-Informationen angezeigt werden können. In Fahrzeugen mit einem Abstandsregeltempomaten (engl.: Adaptive Cruise Control; ACC) wird einem vorausfahrenden Fahrzeug automatisiert gefolgt bzw. ein entsprechender Abstand zu diesem eingehalten. Zur Verdeutlichung des automatisierten Folgens kann das vorausfahrende Fahrzeug von der Augmented-Reality-Anzeigevorrichtung augmentiert werden. Wenn dieses Fahrzeug nun einen Spurwechsel durchführt, kann es vorkommen, dass anzuzeigende Augmented-Reality-Informationen außerhalb des aktuellen Augmentierungsbereichs liegen. Der Augmentierungsbereich kann dann entsprechend nachgeführt werden. Ein weiterer Anwendungsfall von Augmented Reality ist die Indikation von Seitenverkehr, z.B. an einer Kreuzung. Diese könnte aktuell nur mit Richtungspfeilen erfolgen, da der Augmentierungsbereich nicht ausreichend weit nach rechts bzw. links reicht. Mit der erfindungsgemäßen Verschiebung des Augmentierungsbereich kann hingegen früher auf Gefahrensituationen hingewiesen werden, z.B. auf einen Radfahrer in einer Querstraße oder einen Fußgänger an einem Zebrastreifen. Dies erhöht die Sicherheit der beteiligten Personen.
Gemäß einem Aspekt der Erfindung umfasst das Anpassen der Position des Augmentierungsbereichs eine Verkippung eines gekrümmten Spiegels der Augmented-Reality-Anzeigevorrichtung um eine senkrechte Achse. Eine einfache Möglichkeit zum Anpassen der Position des Augmentierungsbereichs besteht darin, einen gekrümmten Spiegel im optischen Pfad der Anzeigevorrichtung horizontal zu verkippen. Die Drehachse ist dabei im Wesentlichen parallel zur z- Achse des Fahrzeugs. Durch das horizontale Verkippen des gekrümmten Spiegels wird das virtuelle Bild horizontal verschoben. Aufgrund der Möglichkeit des Verkippens benötigt der gekrümmte Spiegel nicht die Größe, die sich normalerweise aus der Projektion des gesamten virtuellen Bildes auf den gekrümmten Spiegel ergeben würde. Die dynamische Breite des virtuellen Bildes ist dadurch von Bauraumvorgaben entkoppelt und ergibt sich durch den Rotationsweg des gekrümmten Spiegels. Bei einer horizontalen oder vertikalen Verdrehung des gekrümmten Spiegels verschiebt sich auch die Eyebox, in der dem Fahrer das virtuelle Bild angezeigt wird. Sie verschiebt sich in entgegengesetzte Richtung wie das virtuelle Bild, mit dem Angelpunkt typischerweise kurz vor der Windschutzscheibe auf der Straßenseite. Durch die Hebelwirkung und den langen Projektionspfad, der insbesondere bei einem Augmented-Reality-Head-Up-Displays in der Regel vorliegt, ergibt eine kleine Verschiebung der Eyebox eine relativ große Verschiebung des virtuellen Bildes in entgegengesetzter Richtung. Diese kleine Verschiebung der Eyebox kann in der Regel leicht durch den Fahrer kompensiert werden. Insbesondere in Kurvenfahrten, also einem der Anwendungsfälle der Erfindung, werden Körper und Kopf durch die Trägheitskraft ohnehin in die entgegensetzte Richtung gedrückt und damit in die gleiche Richtung wie die Eyebox.
Vorzugsweise wird eine erfindungsgemäße Augmented-Reality- Anzeigevorrichtung in einem Head-Up-Display verwendet, z.B. einem Head-Up- Display für ein Kraftfahrzeug.
Weitere Merkmale der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung und den angehängten Ansprüchen in Verbindung mit den Figuren ersichtlich.
Figurenübersicht
Fig. 1 zeigt schematisch ein Head-Up-Display gemäß dem Stand der Technik für ein Kraftfahrzeug;
Fig. 2 zeigt schematisch ein Head-Up-Display mit einer erfindungsgemäßen Augmented-Reality-Anzeigevorrichtung; Fig. 3 veranschaulicht eine Anpassung eines Augmentierungsbereichs an eine Kurvenfahrt;
Fig. 4 zeigt schematisch ein Fahrzeug mit einem Head-Up-Display, das eine erfindungsgemäße Augmented-Reality-Anzeigevorrichtung nutzt;
Fig. 5 zeigt schematisch ein Verfahren zum Steuern einer Augmented- Reality-Anzeigevorrichtung eines Fahrzeugs;
Fig. 6 zeigt schematisch eine erste Ausführungsform einer Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung eines Fahrzeugs; und
Fig. 7 zeigt schematisch eine zweite Ausführungsform einer Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung eines Fahrzeugs.
Figurenbeschreibung
Zum besseren Verständnis der Prinzipien der vorliegenden Erfindung werden nachfolgend Ausführungsformen der Erfindung anhand der Figuren detaillierter erläutert. Gleiche Bezugszeichen werden in den Figuren für gleiche oder gleichwirkende Elemente verwendet und nicht notwendigerweise zu jeder Figur erneut beschrieben. Es versteht sich, dass sich die Erfindung nicht auf die dargestellten Ausführungsformen beschränkt und dass die beschriebenen Merkmale auch kombiniert oder modifiziert werden können, ohne den Schutzbereich der Erfindung zu verlassen, wie er in den angehängten Ansprüchen definiert ist. Fig. 1 zeigt eine Prinzipskizze eines Head-Up-Displays gemäß dem Stand der Technik für ein Kraftfahrzeug. Das Head-Up-Display weist eine Anzeigevorrichtung 1 mit einer bildgebenden Einheit 10 und einer Optikeinheit 12 auf. Von einem Anzeigeelement 11 geht ein Strahlenbündel SB1 aus, welches von einem Faltspiegel 21 auf einen gekrümmten Spiegel 22 reflektiert wird, der es in Richtung einer Spiegeleinheit 2 reflektiert. Die Spiegeleinheit 2 ist hier als Windschutzscheibe 20 des Kraftfahrzeugs dargestellt. Von dort gelangt das Strahlenbündel SB2 in Richtung eines Auges eines Betrachters 3.
Der Betrachter 3 sieht ein virtuelles Bild VB, welches sich außerhalb des Kraftfahrzeugs oberhalb der Motorhaube oder sogar vor dem Kraftfahrzeug befindet. Durch das Zusammenwirken von Optikeinheit 12 und Spiegeleinheit 2 ist das virtuelle Bild VB eine vergrößerte Darstellung des vom Anzeigeelement 11 angezeigten Bildes. Hier sind symbolisch eine Geschwindigkeitsbegrenzung, die aktuelle Fahrzeuggeschwindigkeit sowie Navigationsanweisungen dargestellt. So lange sich das Auge des Betrachters 3 innerhalb einer durch ein Rechteck angedeuteten Eyebox 4 befindet, sind alle Elemente des virtuellen Bildes VB für den Betrachter 3 sichtbar. Befindet sich das Auge des Betrachters 3 außerhalb der Eyebox 4, so ist das virtuelle Bild VB für den Betrachter 3 nur noch teilweise oder gar nicht sichtbar. Je größer die Eyebox 4 ist, desto weniger eingeschränkt ist der Betrachter bei der Wahl seiner Sitzposition.
Die Krümmung des gekrümmten Spiegels 22 ist an die Krümmung der Windschutzscheibe 20 angepasst und sorgt dafür, dass die Bildverzeichnung über die gesamte Eyebox 4 stabil ist. Der gekrümmte Spiegel 22 ist mittels einer Lagerung 221 um eine horizontale Achse drehbar gelagert. Die dadurch ermöglichte Drehung des gekrümmten Spiegels 22 ermöglicht ein Verschieben der Eyebox 4 und somit eine Anpassung der Position der Eyebox 4 an die Position des Betrachters 3. Der Faltspiegel 21 dient dazu, dass der vom Strahlenbündel SB1 zurückgelegte Weg zwischen Anzeigeelement 11 und gekrümmtem Spiegel 22 lang ist, und gleichzeitig die Optikeinheit 12 dennoch kompakt ausfällt. Die bildgebende Einheit 10 und die Optikeinheit 12 werden durch ein Gehäuse 13 mit einer transparenten Abdeckung 23 gegen die Umgebung abgegrenzt. Die optischen Elemente der Optikeinheit 12 sind somit beispielsweise gegen im Innenraum des Fahrzeugs befindlichen Staub geschützt. Auf der Abdeckung 23 kann sich weiterhin eine optische Folie bzw. ein Polarisator 24 befinden. Ein Blendschutz 25 dient dazu, das über die Grenzfläche der Abdeckung 23 reflektierte Licht sicher zu absorbieren, sodass keine Blendung des Betrachters hervorgerufen wird. Außer dem Sonnenlicht SL kann auch das Licht einer anderen Störlichtquelle 5 auf das Anzeigeelement 11 gelangen. In Kombination mit einem Polarisationsfilter erlaubt es der Polarisator 24, einfallendes Sonnenlicht SL zu reduzieren.
Fig. 2 zeigt schematisch ein Head-Up-Display mit einer erfindungsgemäßen Augmented-Reality-Anzeigevorrichtung 1 . Das Head-Up-Display entspricht weitgehend dem Head-Up-Display aus Fig. 1 , allerdings ist der gekrümmte Spiegel 22 in diesem Fall auch um eine senkrechte Achse 222 drehbar. Zur Verstellung des gekrümmten Spiegels 22 um die senkrechte Achse 222 dient ein Motor 14, beispielsweise ein linearer Schrittmotor. Der Motor 14 erhält dazu entsprechende Steuerbefehle SB von einer Vorrichtung 50 zum Steuern der Augmented-Reality-Anzeigevorrichtung 1 .
Fig. 3 veranschaulicht eine Anpassung eines Augmentierungsbereichs 15 an eine Kurvenfahrt eines Fahrzeugs 40. Während einer Geradeausfahrt befindet sich der drehbare gekrümmte Spiegel 22 in einer zentralen Stellung. Der zugehörige Augmentierungsbereich 15, in dem ein virtuelles Bild VB dargestellt werden kann, liegt zentral vor dem Fahrer. Auch die Eyebox 4 ist dementsprechend auf den Fahrer zentriert. Im Falle einer Kurvenfahrt wird der gekrümmte Spiegel 22 mittels eines Motors geringfügig um eine senkrechte Achse 222 verkippt. Dadurch verschieben sich der Augmentierungsbereich 15 sowie die Eyebox 4 in entgegengesetzte Richtungen. Im dargestellten Beispiel wird der Augmentierungsbereich 15 nach rechts verschoben, die Eyebox 4 nach links. Auf diese Weise kann ein deutlich vergrößertes virtuelles Sichtfeld 16 abgedeckt werden. Die Verschiebung ist in Fig. 3 zur Verdeutlichung übertrieben dargestellt.
Bei Head-Up-Displays mit großer statischer Eyebox 4 ohne Einstellmöglichkeit gibt es keine Verstelleinheiten für die Spiegel. In diesem Fall kann für den Motor 14 eine lineare Schrittmotorverstellung vorgesehen werden, die eine horizontale Rotation des gekrümmten Spiegels 22 induziert.
Bei Head-Up-Displays mit einer dynamischen Position der Eyebox 4 gibt es bereits eine Verstelleinheit zur vertikalen Bildverschiebung. Wenn diese dynamische Verstellung der Eyebox 4 am gekrümmten Spiegel 22 durchgeführt wird, kann für den Motor 14 ein zweiter, gekoppelter Schrittmotor vorgesehen werden, um beide Richtungen einstellen zu können. Wenn die dynamische Verstellung der Eyebox 4 stattdessen z.B. an einem Faltspiegel durchgeführt wird, kann für den Motor 14 wiederum eine lineare Schrittmotorverstellung des gekrümmten Spiegels 22 vorgesehen werden.
Fig. 4 zeigt schematisch ein Fahrzeug 40, in dem eine erfindungsgemäße Lösung realisiert ist. Bei dem Fahrzeug 40 handelt es sich in diesem Beispiel um ein Kraftfahrzeug. Das Kraftfahrzeug weist eine erfindungsgemäße Augmented- Reality-Anzeigevorrichtung 1 auf, die in diesem Fall Bestandteil eines Head-Up- Displays ist. Die Augmented-Reality-Anzeigevorrichtung 1 ermöglicht es, Augmented-Reality-Informationen I darzustellen. Die Augmented-Reality- Anzeigevorrichtung 1 wird von einer Vorrichtung 50 gesteuert. Mit einer Sensorik 41 können z.B. Daten zur Fahrzeugumgebung erfasst werden. Die Sensorik 41 kann insbesondere Sensoren zur Umfelderkennung umfassen, z.B.
Ultraschallsensoren, Laserscanner, Radarsensoren, Lidarsensoren oder Kameras. Die von der Sensorik 41 erfassten Informationen können genutzt werden, um anzuzeigende Inhalte für das Head-Up-Display zu generieren. Mit einem Beschleunigungssensor 42 können Beschleunigungen des Kraftfahrzeugs erfasst werden. Aus den vom Beschleunigungssensor 42 erfassten Beschleunigungen kann eine Kurvenfahrt des Kraftfahrzeugs ermittelt werden. Weitere Bestandteile des Kraftfahrzeugs sind in diesem Beispiel ein Navigationssystem 43, durch das Positionsinformationen bereitgestellt werden können, sowie eine Datenübertragungseinheit 44. Mittels der Datenübertragungseinheit 44 kann z.B. eine Verbindung zu einem Backend aufgebaut werden, beispielsweise um aktualisierte Software für Komponenten des Kraftfahrzeugs zu beziehen. Zur Speicherung von Daten ist ein Speicher 45 vorhanden. Der Datenaustausch zwischen den verschiedenen Komponenten des Kraftfahrzeugs erfolgt über ein Netzwerk 46.
Fig. 5 zeigt schematisch ein Verfahren zum Steuern einer Augmented-Reality- Anzeigevorrichtung eines Fahrzeugs. In einem ersten Schritt werden Daten zu einer Fahrsituation des Fahrzeugs erfasst S1 . Basierend auf diesen Daten wird ermittelt S2, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality-Anzeigevorrichtung erforderlich werden kann. Dies ist z.B. der Fall, wenn eine Kurvenfahrt bevorsteht oder stattfindet, was aus Daten eines Beschleunigungssensors, aus Daten einer Umfeldsensorik oder aus Kartendaten ermittelt werden kann. Dies kann ebenfalls der Fall sein, wenn z.B. auf Basis von Daten der Umfeldsensorik ein seitlicher Verkehrsteilnehmer detektiert wird. Insbesondere können dazu Daten einer Kamera, eines Lidarsensors oder eines Radarsensors ausgewertet werden. Eine Fahrsituation mit Handlungsbedarf kann auch dann vorliegen, wenn eine Darstellung von Augmented-Reality-Informationen auf einer zu einer aktuellen Fahrspur benachbarten Fahrspur erfolgen soll. Dies kann z.B. der Fall sein, wenn ein Spurwechsel des Fahrzeugs ansteht oder ein Spurwechsel eines vorausfahrenden Fahrzeugs erfolgt. Eine Position des Augmentierungsbereichs wird dann derart in Bezug auf einen Betrachter angepasst S3, dass die darzustellenden Augmented-Reality-Informationen innerhalb des Augmentierungsbereichs darstellbar sind. Zu diesem Zweck kann beispielsweise eine Verkippung eines gekrümmten Spiegels der Augmented-Reality- Anzeigevorrichtung um eine senkrechte Achse erfolgen. Fig. 6 zeigt eine vereinfachte schematische Darstellung einer ersten Ausführungsform einer Vorrichtung 50 zum Steuern einer Augmented-Reality- Anzeigevorrichtung 1 eines Fahrzeugs. Die Vorrichtung 50 hat einen Eingang 51 , über den beispielsweise Daten BD eines Beschleunigungssensors 42, Daten UD einer Umfeldsensorik 41 oder Kartendaten KD empfangen werden können. Ein Auswertemodul 52 ist eingerichtet, auf Grundlage der empfangenen Daten zu ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality-Anzeigevorrichtung 1 erforderlich werden kann. Dies ist z.B. der Fall, wenn eine Kurvenfahrt bevorsteht oder stattfindet, was aus Daten BD des Beschleunigungssensors 42, aus den Daten UD der Umfeldsensorik 41 oder aus den Kartendaten KD ermittelt werden kann. Eine Fahrsituation mit Handlungsbedarf kann auch dann vorliegen, wenn eine Darstellung von Augmented-Reality-Informationen auf einer zu einer aktuellen Fahrspur benachbarten Fahrspur erfolgen soll. Dies kann z.B. der Fall sein, wenn ein Spurwechsel des Fahrzeugs ansteht oder ein Spurwechsel eines vorausfahrenden Fahrzeugs erfolgt. Ein Steuermodul 53 ist eingerichtet, eine Position des Augmentierungsbereichs in Bezug auf einen Betrachter derart anzupassen, dass die darzustellenden Augmented-Reality-Informationen innerhalb des Augmentierungsbereichs darstellbar sind. Zu diesem Zweck kann das Steuermodul 53 einen entsprechenden Steuerbefehl SB über einen Ausgang 56 der Vorrichtung 50 an die Augmented-Reality-Anzeigevorrichtung 1 ausgeben. Im Ansprechen auf den Steuerbefehl SB kann beispielsweise eine Verkippung eines gekrümmten Spiegels der Augmented-Reality-Anzeigevorrichtung 1 um eine senkrechte Achse erfolgen.
In Fig. 6 ist die Vorrichtung 50 als eigenständige Komponente dargestellt. Selbstverständlich kann sie aber auch in die Augmented-Reality- Anzeigevorrichtung 1 , in einen zentralen Fahrzeugrechner oder in eine andere Komponente integriert sein. Das Auswertemodul 52 und das Steuermodul 53 können von einem Kontrollmodul 54 gesteuert werden. Über eine Benutzerschnittstelle 57 können gegebenenfalls Einstellungen des Auswertemoduls 52, des Steuermoduls 53 oder des Kontrollmoduls 54 geändert werden. Die in der Vorrichtung 50 anfallenden Daten können bei Bedarf in einem Speicher 55 der Vorrichtung 50 abgelegt werden, beispielsweise für eine spätere Auswertung oder für eine Nutzung durch die Komponenten der Vorrichtung 50. Das Auswertemodul 52, das Steuermodul 53 sowie das Kontrollmodul 54 können als dedizierte Hardware realisiert sein, beispielsweise als integrierte Schaltungen. Natürlich können sie aber auch teilweise oder vollständig kombiniert oder als Software implementiert werden, die auf einem geeigneten Prozessor läuft, beispielsweise auf einer GPU oder einer CPU. Der Eingang 51 und der Ausgang 56 können als getrennte Schnittstellen oder als eine kombinierte Schnittstelle implementiert sein.
Fig. 7 zeigt eine vereinfachte schematische Darstellung einer zweiten Ausführungsform einer Vorrichtung 60 zum Steuern einer Augmented-Reality- Anzeigevorrichtung eines Fahrzeugs. Die Vorrichtung 60 weist einen Prozessor 62 und einen Speicher 61 auf. Beispielsweise handelt es sich bei der Vorrichtung 60 um eine Steuereinheit oder ein eingebettetes System. Im Speicher 61 sind Instruktionen abgelegt, die die Vorrichtung 60 bei Ausführung durch den Prozessor 62 veranlassen, die Schritte gemäß einem der beschriebenen Verfahren auszuführen. Die im Speicher 61 abgelegten Instruktionen verkörpern somit ein durch den Prozessor 62 ausführbares Programm, welches das erfindungsgemäße Verfahren realisiert. Die Vorrichtung 60 hat einen Eingang 63 zum Empfangen von Informationen. Vom Prozessor 62 generierte Daten werden über einen Ausgang 64 bereitgestellt. Darüber hinaus können sie im Speicher 61 abgelegt werden. Der Eingang 63 und der Ausgang 64 können zu einer bidirektionalen Schnittstelle zusammengefasst sein. Der Prozessor 62 kann eine oder mehrere Prozessoreinheiten umfassen, beispielsweise Mikroprozessoren, digitale Signalprozessoren oder Kombinationen daraus. Die Speicher 55, 61 der beschriebenen Vorrichtungen können sowohl volatile als auch nichtvolatile Speicherbereiche aufweisen und unterschiedlichste Speichergeräte und Speichermedien umfassen, beispielsweise Festplatten, optische Speichermedien oder Halbleiterspeicher.
Bezugszeichenliste
1 Anzeigevorrichtung
2 Spiegeleinheit
3 Betrachter
4 Eyebox
5 Störlichtquelle
10 Bildgebende Einheit
11 Anzeigeelement
12 Optikeinheit
13 Gehäuse
14 Motor
15 Augmentierungsbereich
16 Virtuelles Sichtfeld
20 Windschutzscheibe
21 Faltspiegel
22 Gekrümmter Spiegel
221 Lagerung
222 Senkrechte Achse
23 Transparente Abdeckung
24 Optische Folie/Polarisator
25 Blendschutz
40 Fortbewegungsmittel
41 Sensorik
42 Beschleunigungssensor
43 Navigationssystem
44 Datenübertragungseinheit
45 Speicher 46 Netzwerk
50 Vorrichtung
51 Eingang
52 Auswertemodul
53 Steuermodul
54 Kontrollmodul
55 Speicher
56 Ausgang
57 Benutzerschnittstelle
60 Vorrichtung
61 Speicher
62 Prozessor
63 Eingang
64 Ausgang
BD Daten eines Beschleunigungssensors
I Augmented-Reality-Informationen
KD Kartendaten
SB Steuerbefehl
SB1 Strahlenbündel
SB2 Strahlenbündel
SL Sonnenlicht
UD Daten einer Umfeldsensorik
VB Virtuelles Bild
51 Erfassen von Daten zu einer Fahrsituation
52 Ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt
53 Anpassen einer Position eines Augmentierungsbereichs

Claims

Patentansprüche
1 . Verfahren zum Steuern einer Augmented-Reality-Anzeigevorrichtung (1 ) eines Fahrzeugs (40), mit den Schritten:
- Ermitteln (S2), ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen (I) am Rand oder außerhalb eines Augmentierungsbereichs (15) der Augmented-Reality-Anzeigevorrichtung (1) erforderlich werden kann; und
- Anpassen (S3) eines Augmentierungsbereichs (15) in Bezug auf einen Betrachter (3) derart, dass die darzustellenden Augmented-Reality-Informationen (I) innerhalb des Augmentierungsbereichs (15) darstellbar sind.
2. Verfahren gemäß Anspruch 1 , wobei das Vorliegen einer Fahrsituation mit Handlungsbedarf ermittelt wird (S2), wenn eine Kurvenfahrt bevorsteht oder stattfindet.
3. Verfahren gemäß Anspruch 2, wobei eine Kurvenfahrt aus Daten (BD) eines Beschleunigungssensors (42), aus Daten (UD) einer Umfeldsensorik (41 ) oder aus Kartendaten (KD) ermittelt wird.
4. Verfahren gemäß Anspruch 1 , wobei das Vorliegen einer Fahrsituation mit Handlungsbedarf ermittelt wird (S2), wenn eine Darstellung von Augmented- Reality-Informationen (I) auf einer von einer aktuellen Fahrspur beabstandeten Fahrspur erfolgen soll.
5. Verfahren gemäß Anspruch 4, wobei eine Darstellung von Augmented- Reality-Informationen (I) auf einer von einer aktuellen Fahrspur beabstandeten Fahrspur erfolgt, wenn ein Spurwechsel des Fahrzeugs (40) ansteht oder ein Spurwechsel eines vorausfahrenden Fahrzeugs erfolgt.
6. Verfahren gemäß einem der vorherigen Ansprüche, wobei das Anpassen (S3) der Position des Augmentierungsbereichs (15) eine Verkippung eines gekrümmten Spiegels (22) der Augmented-Reality-Anzeigevorrichtung (1) um eine senkrechte Achse (222) umfasst.
7. Computerprogramm mit Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 6 zum Steuern einer Augmented-Reality- Anzeigevorrichtung (1 ) eines Fahrzeugs (40) veranlassen.
8. Vorrichtung (50) zum Steuern einer Augmented-Reality-Anzeigevorrichtung (1 ) eines Fahrzeugs (40), mit:
- einem Auswertemodul (52) zum Ermitteln (S2), ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality- Informationen (I) am Rand oder außerhalb eines Augmentierungsbereichs (15) der Augmented-Reality-Anzeigevorrichtung (1 ) erforderlich werden kann; und
- einem Steuermodul (53) zum Anpassen (S3) einer Position des Augmentierungsbereichs (15) in Bezug auf einen Betrachter (3) derart, dass die darzustellenden Augmented-Reality-Informationen (I) innerhalb des Augmentierungsbereichs (15) darstellbar sind.
9. Augmented-Reality-Anzeigevorrichtung (1 ) für ein Fahrzeug (40), wobei die Augmented-Reality-Anzeigevorrichtung (1) eine Vorrichtung gemäß Anspruch 8 aufweist oder eingerichtet ist, ein Verfahren gemäß einem der Ansprüche 1 bis 6 auszuführen.
10. Augmented-Reality-Anzeigevorrichtung (1 ) gemäß Anspruch 9, wobei die Augmented-Reality-Anzeigevorrichtung (1 ) Bestandteil eines Head-Up-Displays ist.
PCT/DE2022/200274 2021-11-26 2022-11-22 Verfahren, computerprogramm und vorrichtung zum steuern einer augmented-reality-anzeigevorrichtung WO2023093952A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021213332.0A DE102021213332A1 (de) 2021-11-26 2021-11-26 Verfahren, Computerprogramm und Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung
DE102021213332.0 2021-11-26

Publications (1)

Publication Number Publication Date
WO2023093952A1 true WO2023093952A1 (de) 2023-06-01

Family

ID=84688227

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2022/200274 WO2023093952A1 (de) 2021-11-26 2022-11-22 Verfahren, computerprogramm und vorrichtung zum steuern einer augmented-reality-anzeigevorrichtung

Country Status (2)

Country Link
DE (1) DE102021213332A1 (de)
WO (1) WO2023093952A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140379260A1 (en) * 2012-02-02 2014-12-25 Daimler Ag Vehicle Display Device with Vehicle Movement Compensation
US20150077857A1 (en) * 2012-05-24 2015-03-19 Bayerische Motoren Werke Aktiengesellschaft Automotive Head-Up-Display
EP3128357A2 (de) 2015-08-05 2017-02-08 LG Electronics Inc. Anzeigevorrichtung
EP2002212B1 (de) * 2006-03-07 2017-04-26 Robert Bosch GmbH Verfahren und anordnung zur anzeige von navigationshinweisen
WO2018114078A1 (de) * 2016-12-20 2018-06-28 Volkswagen Aktiengesellschaft Head-up-display-vorrichtung für ein kraftfahrzeug, verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer head-up-display-vorrichtung
US20190205662A1 (en) * 2016-06-29 2019-07-04 Kyocera Corporation Object detection and display apparatus, moveable body, and object detection and display method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5344069B2 (ja) 2011-08-29 2013-11-20 株式会社デンソー ヘッドアップディスプレイ装置
KR101558353B1 (ko) 2013-09-26 2015-10-07 현대자동차 주식회사 증강 현실을 이용한 차량용 헤드 업 디스플레이 장치
JP6443236B2 (ja) 2015-06-16 2018-12-26 株式会社Jvcケンウッド 虚像提示システム、画像投射装置および虚像提示方法
CN109895851B (zh) 2015-09-08 2021-11-09 星克跃尔株式会社 弯道导向方法、弯道导向装置、弯道导向电子装置及计算机可读记录介质
DE102018204325A1 (de) 2018-03-21 2019-09-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung und Fortbewegungsmittel für eine kinetosevermeidende, virtuelle Darstellung von Multimediainhalten in einem Fortbewegungsmittel

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2002212B1 (de) * 2006-03-07 2017-04-26 Robert Bosch GmbH Verfahren und anordnung zur anzeige von navigationshinweisen
US20140379260A1 (en) * 2012-02-02 2014-12-25 Daimler Ag Vehicle Display Device with Vehicle Movement Compensation
US20150077857A1 (en) * 2012-05-24 2015-03-19 Bayerische Motoren Werke Aktiengesellschaft Automotive Head-Up-Display
EP3128357A2 (de) 2015-08-05 2017-02-08 LG Electronics Inc. Anzeigevorrichtung
US20190205662A1 (en) * 2016-06-29 2019-07-04 Kyocera Corporation Object detection and display apparatus, moveable body, and object detection and display method
WO2018114078A1 (de) * 2016-12-20 2018-06-28 Volkswagen Aktiengesellschaft Head-up-display-vorrichtung für ein kraftfahrzeug, verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer head-up-display-vorrichtung

Also Published As

Publication number Publication date
DE102021213332A1 (de) 2023-06-01

Similar Documents

Publication Publication Date Title
DE112019001464B4 (de) Informationsanzeigevorrichtung
DE112018001655B4 (de) Anzeigevorrichtung und sich bewegender Körper mit der Anzeigevorrichtung
EP2197707B1 (de) Vorrichtung zum überwachen der umgebung eines kraftfahrzeugs
EP2883748B1 (de) Verfahren zur Anzeige von optischen Informationen in Fahrzeugen
EP3765324B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE102017216774B4 (de) Verfahren, Vorrichtung, computerlesbares Speichermedium und Kraftfahrzeug mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug
DE102018129741A1 (de) Vorrichtung und Verfahren zum Steuern einer Anzeige eines Fahrzeugs
DE102013208971A1 (de) Vorrichtung und Verfahren zum Projizieren einer Bildinformation in ein Blickfeld eines Fahrzeuginsassen eines Fahrzeugs
EP2197706A2 (de) Verfahren zur fahrerinformation in einem kraftfahrzeug
EP3559725A1 (de) Head-up-display-vorrichtung für ein kraftfahrzeug, verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer head-up-display-vorrichtung
DE102018213820A1 (de) Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahrzeug
DE102018219089A1 (de) Konzept zum Bereitstellen von Korrekturwerten für die Anzeige von Augmented-Reality-Inhalten auf einem Head-up-Display für ein Kraftfahrzeug
EP3834031B1 (de) Verfahren zum betreiben einer blickfeldanzeigevorrichtung für ein kraftfahrzeug
DE102018201768B4 (de) Verfahren zum Anzeigen von Informationen in einem Head-Up-Display eines Fahrzeugs, Anzeigesystem für ein Fahrzeug und Fahrzeug mit einem Anzeigesystem
EP3983252A1 (de) Generieren einer anzeige eines augmented-reality-head-up-displays für ein kraftfahrzeug
DE102015222844A1 (de) Verfahren und Steuergerät zum Betreiben eines Sichtfeldanzeigegeräts für ein Fahrzeug
DE102019005891B4 (de) Projektionsvorrichtung als projektierendes Anzeigesystem mit variabler Projektionstiefe, Verfahren und Kraftfahrzeug mit einer derartigen Projektionsvorrichtung
DE102019208649B3 (de) Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug
WO2023093952A1 (de) Verfahren, computerprogramm und vorrichtung zum steuern einer augmented-reality-anzeigevorrichtung
DE102018200312B4 (de) Verfahren, Vorrichtung und Computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug mit einer solchen Vorrichtung
DE102023206718B3 (de) Head-up-Display für ein Fortbewegungsmittel
DE102017216897A1 (de) Head-Up-Display
DE102017215023B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Bereitstellen von Informationen zur Steuerung einer Anzeige einer Head-Up-Display-Vorrichtung für ein Kraftfahrzeug, sowie zugehöriges System zur Steuerung und Kraftfahrzeug damit
WO2023030594A1 (de) Head-up-display mit reduzierter verdeckung
DE102015006105A1 (de) Verfahren und Vorrichtung zur bildlichen Darstellung statischer Inhalte

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22830684

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: DE

Ref legal event code: R081

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, 30165 HANNOVER, DE