EP3685211A1 - Verfahren und system zum anzeigen zumindest eines raumausschnitts, wobei der raumausschnitt abhängig von einer augenposition einer person angezeigt wird - Google Patents

Verfahren und system zum anzeigen zumindest eines raumausschnitts, wobei der raumausschnitt abhängig von einer augenposition einer person angezeigt wird

Info

Publication number
EP3685211A1
EP3685211A1 EP18762765.8A EP18762765A EP3685211A1 EP 3685211 A1 EP3685211 A1 EP 3685211A1 EP 18762765 A EP18762765 A EP 18762765A EP 3685211 A1 EP3685211 A1 EP 3685211A1
Authority
EP
European Patent Office
Prior art keywords
person
image
display device
space
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP18762765.8A
Other languages
English (en)
French (fr)
Inventor
Sebastian Schwartze
Markus Klug
André SCHWAGER
Muhammad Ali Kezze
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Publication of EP3685211A1 publication Critical patent/EP3685211A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Definitions

  • Method and system for displaying at least one spatial section the spatial section being displayed as a function of an eye position of a person
  • the present invention relates to a method for displaying at least one spatial section of at least one space on a first display surface of a first display device for a first person.
  • Methods are already known from the state of the art in which, for example, two persons can communicate with one another by means of video telephone, whereby an image of the first person is transmitted to the second person and an image of the second person is transmitted to the first person.
  • the images are displayed on respective display devices for the respective persons.
  • the respective spatial sections are detected with the respective cameras of the display devices, and the image information is transmitted via a network to the respective display device of the counterpart and displayed on the imaging device of the respective display device.
  • a rigid image of the space section is displayed. If, for example, the person approaches the camera, then the displayed spatial section remains the same for the person on the display device. In other words, the displayed spatial section from the prior art does not change with the viewing direction of the respective person.
  • Object of the present invention is to provide a method and a system by means of which an improved representation of a room can be displayed as an image for a person on the display device. This object is achieved by a method and by a system according to the independent claims.
  • One aspect of the invention relates to a method for displaying at least one spatial section of at least one space on a first display surface of a first display device for a first person.
  • a second spatial section of a second space, in which the second display device is located is detected and the second spatial section is displayed as a first image on the first display surface.
  • the second space is detected and by means of at least one detection device, an eye position of the first person is detected and a second spatial section of the second space, which is dependent on the detected eye position, is displayed as the first image on the first display surface.
  • the first person depending on the first person's eye position, to see the image of the second room, in particular of the room section, displayed on the first display surface.
  • the first person may look into the second room with different viewing angles and, for example, in the second room, look around the first display device in the second room. Similar to looking through a window, the second room, which is then behind the window, can be viewed by the first person accordingly.
  • the second room can then be displayed "behind the window."
  • a particularly realistic communication between the first display device and the second display device can thereby be realized
  • objects which are hidden in a first viewing angle by another object in the second space are changed by a change of perspective
  • an improved representation of the second space for the first person can be realized.
  • the second space is detected by the second camera.
  • An eye position is detected by means of a detection device of a first person arranged outside the second space.
  • the second space section of the second space is selected in accordance with the detected eye position of the person by means of a controller.
  • the control device By means of the control device, the first display device is actuated for displaying the selected second spatial section.
  • the detection device can detect the eye position, for example, by means of image processing of an image captured by a camera. Further, by detecting a temperature of the room in which the first person is located, the eye position can be detected. It is also possible that based on markers on the first person, the eye position is detected.
  • the first and / or the second display device can also communicate with at least one further third display device, so that the displayed spatial section in which the third display device is located is correspondingly adapted to at least the detected perspective of the first person and on the first and / or the second display device can be displayed.
  • a third image and / or the first and / or a second image may then be displayed on the first and / or the second display surface.
  • the person and a first room in which the first person is located can be detected by means of at least one first camera of the detection device, and a first spatial section can be displayed as a second image on a second display surface of the second display device.
  • the first room detail on the second display surface of the second display device are displayed accordingly.
  • the second person for example, the first person also get displayed on a display surface of the second display device, whereby an improved communication between the first and the second person can be realized.
  • the second image on the second display surface can also be adapted depending on the second eye position of the second person, so that a kind of window view also arises for the second person.
  • the second image which indicates the first room with, for example, the first person, can also be adapted for the second person depending on the position of the second person or the angle of view of the second person. This makes it possible that a particularly realistic communication between the first person and the second person can be realized depending on the respective viewing angles.
  • the first person and the first spatial detail can be displayed as a 3-dimensional second image on the second display surface and / or a second person and the second spatial detail as a 3-dimensional first image on the first Display interface.
  • the first display surface is made semitransparent and at least the first image is displayed as augmented reality on the first display surface.
  • the second image is displayed as augmented reality on the second display surface.
  • augmented reality the person can still perceive the environment behind the first display surface while projecting the image onto the first display surface. The person can, so to speak, look through the first image and continue to perceive the environment behind the first display surface.
  • a communication can be carried out in which the person can still perceive the surroundings of the display device.
  • a pane can be used as a first display surface and a vehicle occupant as a person can continue to perceive the environment of the motor vehicle and still get displayed the first image on the first display surface.
  • the second space is detected at least by means of at least two second cameras, in particular by means of three second cameras.
  • the first display device, the first room and / or the person is detected by means of at least two first cameras, in particular by means of three first cameras.
  • a particularly reliable recording of the room can be made possible by means of the at least two cameras, in particular by means of the three cameras, so that in particular a particularly advantageous representation of the spatial section can be realized as a function of the eye position of the person.
  • the different viewing angles can thereby be represented particularly realistically since the at least two cameras can detect the space from different directions and thus the space can be displayed in an improved manner. This can also create the opportunity will be able to display a hologram or a three-dimensional image.
  • At least one first camera of the first detection device and / or the second camera can be formed as an image-receiving film and / or at least the first display surface can be formed as an imaging film.
  • the display device can be provided in a particularly space-saving manner, which has both the image-receiving film and the imaging film.
  • a vehicle window or a mirror can be used as a display or recording device.
  • such a display device can be installed in a space-saving and simple manner in the case of many carrier media of the film, so that communication between a person and the room or between a person of another person can be carried out in a particularly simple and comfortable manner.
  • the image-receiving film and / or the imaging film is formed on a first carrier element of the first display device.
  • a support member for example, a disc or a mirror can be used.
  • a vehicle window pane or a motor vehicle mirror can then be used as a carrier element within a motor vehicle. This makes it possible that an image can be recorded by means of a single carrier element, as well as an image can be displayed. This is particularly comfortable and space-saving.
  • an LCD film is arranged on the first carrier element, which can be darkened pixel-wise, so that depths of the imaging film are improved by the person perceptible.
  • the image-receiving and the imaging film can be provided as a single one-piece film element.
  • a single film element can be arranged on the carrier element, which is designed both image-receiving and imaging.
  • a further aspect of the invention relates to a system having a first display device and a second display device, which are designed to carry out a method according to one of the preceding aspects.
  • the first display device is coupled via a network to at least the second display device for exchanging information.
  • the network can be configured both wired and wireless.
  • Fig. 1 is a schematic view of an embodiment of a system with two display devices for communication between see two people; a schematic perspective view of an embodiment of the system having a first and a second space; and Fig. 3 is a further schematic perspective view of the system in a motor vehicle for communication between two persons.
  • the exemplary embodiments explained below are preferred embodiments of the invention.
  • the described components of the embodiments each represent individual features of the invention, which are to be considered independently of one another, which also develop the invention independently of each other and thus also individually or in a different combination than the one shown as part of the invention.
  • the described embodiments can also be supplemented by further features of the invention already described.
  • functionally identical elements are each provided with the same reference numerals.
  • the system 1 shows a schematic view of an embodiment of a system 1.
  • the system 1 has at least one first display device 2 and at least one second display device 3.
  • the first display device 2 is coupled via a network 4 to the second display device 3 for information exchange.
  • the network 4 can be configured both wired and wireless.
  • the first display device 2 has a first display surface 5 and the second display device 3 has a second display surface 6.
  • the first display device 2 has at least one first camera 7, in the present case three first cameras 7. With the cameras 7, a first space 8 can be detected.
  • a respective detection area E1, E2, E3 can be detected, so that the first space 8, in particular completely, can be detected.
  • the second display device 3 has at least one second camera 9, in the present case in particular three second cameras 9. With the second cameras 9, a second space 10 can be detected.
  • a respective detection area E4, E5, E6 can be detected by a respective camera 9, as a result of which the space 10 can in particular be completely detected.
  • the second space section 13 is adjusted according to the eye position 1 1 for the first person 12.
  • further information about the second space 10 is provided on the first display device 2. For example, a temperature and / or a surface condition and / or a movement can be displayed on the display device 2.
  • a first spatial section 15 of the first space 8 is displayed on the second display surface 6 of the second display device 3.
  • a second eye position 16 of a second person 17, which is located in the second space 16 and a second image 18 of the first space section 15 depending on the second eye position 16 on the second display surface 6 are adjusted accordingly.
  • a kind of window view can thus also be created for the second person 17, so that the second person 17 can also look through the "window" via the second display device 3 and view the first space 8 as a function of the second eye position 16.
  • the first person 12 can see through the semi-transparent display surface 5 and perceive an environment 19 of the first display device 2.
  • the first image 14 may be projected onto the first display surface 5 and considered as an augmented reality.
  • the second person 17 sees through the second display surface 6 and perceives the second environment 20 of the second display device 3 and the second image 18 is displayed on the display surface 6 as augmented reality.
  • At least the first camera 7 and / or the second camera 9 are formed as respective image-receiving film 21 and / or at least the first display surface 5 and / or the second display surface 6 are formed as an imaging film 22.
  • FIG. 2 shows a schematic perspective view of the system 1.
  • the first person 12 looks through the first display device 2, such as through a window, and can recognize the second person 17 in the second room 10.
  • the second person 17 looks through the second display device 3, and can perceive the first person 12 in the first room 8, as through a window.
  • the respective display of the spatial cut-outs 13, 15 can be adapted, so that a particularly realistic near-real communication between the first person 12 and the second person 17 can be performed.
  • sound information for example, can be transmitted in addition to the image.
  • FIG. 3 shows a further schematic perspective view of the system 1.
  • the first person 12 looks through the first display device 2, in particular through the first display surface 5, and can see the second person 17, which is shown here as a toddler.
  • the first person 12 sitting on a front seat of a motor vehicle and look, for example, through a windshield, which has the display device 2.
  • the child 17 can sit on a rear area and, for example, the second display device 3 can be accommodated in a seat of the front seats.
  • the first person 12 looks out of the windshield and can view the second person 17, who is in the rear area, for example, through the windshield or on the display device 2, 3, which is arranged on the windshield.
  • first person 12 and the first spatial section 15 are displayed as a 3-dimensional second image 18 on the second display surface 6 and / or the second person 17 and the second spatial section 13 as a 3-dimensional first image 14 on the first display surface 6 are displayed.
  • the image-receiving film 21 and / or the imaging film 22 can be formed on a first carrier element 23 of the first display device 2 and / or the second display device 3.
  • the image-receiving and the Imaging film 21, 22 provided as a single one-piece film element.
  • an LCD film is arranged on the first carrier element 23, which can be darkened pixel-wise, so that depths of the imaging film 22 improved by a person 12, 17 can be perceived.
  • only the areas on which also an image 14, 18 or parts of the image 14, 18 are represented can be darkened by the LCD film, so that the areas where no image 14, 18 is represented continue to be represented by a person 12, 17 can be seen through.
  • FIG. 3 shows different perspectives in FIGS. 3a to 3c.
  • the first person 12 looks straight through the first display surface 5 and thus sees the second person 17 in a front view.
  • the first person 17 has changed the eye position 11, in particular in the present case looking to the right, so that now the second person 17 is shown rotated accordingly on the first display surface 5.
  • the first person 12 has turned the viewing direction to the left so that the second person 17 is represented on the first display surface 5 in accordance with the left-hand view angle of the first person 12.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Anzeigen zumindest eines Raumausschnitts (13, 15) zumindest eines Raums (8, 10) auf einer ersten Anzeigeoberfläche (5) einer ersten Anzeigevorrichtung (2) für eine erste Person (12), wobei mittels zumindest einer zweiten Kamera (9) ein zweiter Raumausschnitt (13) eines zweiten Raums (10), in welchem sich die zweite Anzeigevorrichtung (3) befindet, erfasst wird und der zweite Raumausschnitt (13) als erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt wird, wobei mittels der zweiten Kamera (9) der zweite Raum (10) erfasst wird und mittels zumindest einer ersten Erfassungseinrichtung (7') eine Augenposition (11) der ersten Person (12) erfasst wird und ein von der erfassten Augenposition (11) abhängiger zweiter Raumausschnitt (13) des erfassten zweiten Raums (10) als erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt wird. Ferner betrifft die Erfindung ein System (1).

Description

Verfahren und System zum Anzeigen zumindest eines Raumausschnitts, wobei der Raumausschnitt abhängig von einer Augenposition einer Person angezeigt wird
BESCHREIBUNG:
Die vorliegende Erfindung betrifft ein Verfahren zum Anzeigen zumindest eines Raumausschnitts zumindest eines Raums auf einer ersten Anzeigeoberfläche einer ersten Anzeigevorrichtung für eine erste Person.
Aus dem Stand der Technik sind bereits Verfahren bekannt, bei welchen beispielsweise mittels Videotelefon ie zwei Personen miteinander kommunizieren können und dabei ein Bild der ersten Person an die zweite Person übertragen wird und ein Bild der zweiten Person an die erste Person über- tragen wird. Die Bilder werden an jeweiligen Anzeigevorrichtungen für die jeweiligen Personen angezeigt. Insbesondere werden dabei mit den jeweiligen Kameras der Anzeigevorrichtungen die jeweiligen Raumausschnitte erfasst und die Bildinformationen über ein Netzwerk an die jeweilige Anzeigevorrichtung des Gegenübers übertragen und auf der bildgebenden Ein- richtung der jeweiligen Anzeigevorrichtung angezeigt. Im Stand der Technik wird ein starres Bild des Raumausschnitts angezeigt. Sollte sich beispielsweise die Person der Kamera nähern, so bleibt der angezeigte Raumausschnitt für die Person an der Anzeigevorrichtung gleich. Mit anderen Worten verändert sich der angezeigte Raumausschnitt aus dem Stand der Technik nicht mit der Blickrichtung der jeweiligen Person.
Aufgabe der vorliegenden Erfindung ist es ein Verfahren sowie ein System zu schaffen, mittels welchen eine verbesserte Darstellung eines Raums als Bild für eine Person an der Anzeigevorrichtung angezeigt werden kann. Diese Aufgabe wird durch ein Verfahren sowie durch ein System gemäß den unabhängigen Ansprüchen gelöst.
Ein Aspekt der Erfindung betrifft ein Verfahren zum Anzeigen zumindest eines Raumausschnitts zumindest eines Raums auf einer ersten Anzeigeoberfläche einer ersten Anzeigevorrichtung für eine erste Person. Mittels zumindest einer zweiten Kamera wird ein zweiter Raumausschnitt eines zweiten Raums, in welchem sich die zweite Anzeigevorrichtung befindet, erfasst und der zweite Raumausschnitt wird als erstes Bild auf der ersten Anzeigeoberfläche angezeigt.
Mittels der zweiten Kamera wird der zweite Raum erfasst und mittels zumindest einer Erfassungseinrichtung wird eine Augenposition der ersten Person erfasst und ein von der erfassten Augenposition abhängiger zweiter Raum- ausschnitt des zweiten Raums wird als erstes Bild auf der ersten Anzeigeoberfläche angezeigt.
Dadurch ist es ermöglicht, dass die erste Person abhängig von der Augenposition der ersten Person das Bild des zweiten Raums, insbesondere des Raumausschnitts, an der ersten Anzeigeoberfläche angezeigt bekommt. Mit anderen Worten kann die erste Person mit unterschiedlichen Blickwinkeln in den zweiten Raum hineinsehen und sich beispielsweise in dem zweiten Raum über die erste Anzeigevorrichtung in dem zweiten Raum umsehen. Ähnlich einem Durchblick in ein Fenster kann der zweite Raum, welcher dann hinter dem Fenster liegt, entsprechend durch die erste Person betrachtet werden. Durch eine Veränderung der Position der ersten Person, insbesondere durch eine Veränderung der Augenposition der ersten Person, kann dann entsprechend der zweite Raum„hinter dem Fenster" angezeigt werden. Insbesondere kann dadurch eine besonders realistische Kommunikation zwischen der ersten Anzeigevorrichtung und der zweiten Anzeigevorrichtung realisiert werden. Weiterhin kann dadurch realisiert werden, dass beispielsweise Objekte, welche in einem ersten Blickwinkel von einem anderen Objekt im zweiten Raum verdeckt werden, durch einen Blickwinkelwechsel betrachtet werden können. Dadurch kann eine verbesserte Darstellung des zweiten Raums für die erste Person realisiert werden.
Mit anderen Worten wird der zweite Raum mittels der zweiten Kamera er- fasst. Es wird eine Augenposition mittels einer Erfassungseinrichtung einer außerhalb des zweiten Raums angeordneten ersten Person erfasst. Der zweite Raumausschnitt wird des zweiten Raums wird in Abhängigkeit von der erfassten Augenposition der Person mittels einer Steuerungseinrichtung ausgewählt. Mittels der Steuerungseinrichtung wird die erste Anzeigevorrich- tung zum Anzeigen des ausgewählten zweiten Raumausschnitts angesteuert.
Ebenfalls möglich ist, dass neben den reinen Bildinformationen zum Anzeigen des Bilds auch weitere Informationen betreffend beispielsweise eine Temperatur beziehungsweise eine Bewegung im Raum mit übertragen werden können. Des Weiteren kann auch eine Ton Information mit erfasst und übertragen werden. Die Übertragung erfolgt insbesondere in Echtzeit und mit echten Inhalten. Die Erfassungseinrichtung kann beispielsweise mittels Bildverarbeitung eines durch eine Kamera erfassten Bilds, die Augenposition erfassen. Ferner kann über eine Erfassung einer Temperatur des Raums, in welcher sich die erste Person befindet, die Augenposition erfasst werden. Ebenfalls möglich ist, dass auf Basis von Markern an der ersten Person, die Augenposition erfasst wird.
Ferner kann auch die erste und/oder die zweite Anzeigevorrichtung mit zumindest einer weiteren dritten Anzeigevorrichtung kommunizieren, so dass auch der angezeigte Raumausschnitt, in welcher sich die dritte Anzeigevor- richtung befindet, entsprechend an zumindest den erfassten Blickwinkel der ersten Person angepasst wird und auf der ersten und/oder der zweiten Anzeigevorrichtung angezeigt werden kann. Beispielsweise kann dann ein drittes Bild und/oder das erste und/oder ein zweites Bild auf der ersten und/oder der zweiten Anzeigeoberfläche angezeigt werden. Gemäß einer vorteilhaften Ausgestaltungsform kann mittels zumindest einer ersten Kamera der Erfassungseinrichtung die Person und ein erster Raum, in welchem sich die erste Person befindet, erfasst werden, und ein erster Raumausschnitt als zweites Bild auf einer zweiten Anzeigeoberfläche der zweiten Anzeigevorrichtung angezeigt werden. Bei dieser Ausgestaltungsform kann beispielsweise für eine zweite Person, welche sich in dem zweiten Raum befindet, der erste Raumausschnitt auf der zweiten Anzeigeoberfläche der zweiten Anzeigevorrichtung entsprechend angezeigt werden. Dadurch kann die zweite Person beispielsweise die erste Person ebenfalls auf einer Anzeigeoberfläche der zweiten Anzeigevorrichtung angezeigt bekommen, wodurch eine verbesserte Kommunikation zwischen der ersten und der zweiten Person realisiert werden kann. Es hat sich weiterhin als vorteilhaft erwiesen, wenn mittels der zumindest zweiten Kamera der zweiten Anzeigevorrichtung eine zweite Augenposition einer zweiten Person, welche sich in dem zweiten Raum befindet, erfasst wird, und das zweite Bild des ersten Raumausschnitts abhängig von der zweiten Augenposition auf der zweiten Anzeigeoberfläche angepasst wird. Mit anderen Worten kann das zweite Bild auf der zweiten Anzeigeoberfläche abhängig von der zweiten Augenposition der zweiten Person ebenfalls angepasst werden, sodass auch für die zweite Person eine Art Fensterblick entsteht. Dadurch kann auch für die zweite Person abhängig von der Position der zweiten Person beziehungsweise des Blickwinkels der zweiten Person das zweite Bild, welches den ersten Raum mit beispielsweise der ersten Person anzeigt, angepasst werden. Dadurch ist es ermöglicht, dass eine besonders realistische Kommunikation zwischen der ersten Person und der zweiten Person abhängig von den jeweiligen Blickwinkeln realisiert werden kann.
In einer weiteren vorteilhaften Ausgestaltungsform kann die erste Person und der erste Raumausschnitt als ein 3-dimensionales zweites Bild auf der zweiten Anzeigeoberfläche angezeigt werden und/oder eine zweite Person und der zweite Raumausschnitt als 3-dimensionales erstes Bild auf der ersten Anzeigeoberfläche angezeigt werden. Dadurch kann eine besonders realitätsnahe Kommunikation zwischen den Personen durchgeführt werden.
Ebenfalls vorteilhaft ist, wenn zumindest die erste Anzeigeoberfläche semit- ransparent ausgebildet bereitgestellt wird und zumindest das erste Bild als erweiterte Realität auf der ersten Anzeigeoberfläche angezeigt wird. Insbesondere kann auch vorgesehen sein, dass das zweite Bild als erweiterte Realität auf der zweiten Anzeigeoberfläche angezeigt wird. Bei der erweiterten Realität kann die Person die Umgebung hinter der ersten Anzeigeober- fläche weiterhin wahrnehmen, während auf die erste Anzeigeoberfläche das Bild projiziert wird. Die Person kann sozusagen durch das erste Bild hindurchsehen und die Umgebung hinter der ersten Anzeigeoberfläche weiterhin wahrnehmen. Dadurch kann eine Kommunikation durchgeführt werden, bei welcher die Person dennoch die Umgebung der Anzeigevorrichtung wahrnehmen kann. Beispielsweise kann in einem Kraftfahrzeug eine Scheibe als erste Anzeigeoberfläche genutzt werden und ein Fahrzeuginsasse als Person kann die Umgebung des Kraftfahrzeugs weiterhin wahrnehmen und dennoch das erste Bild auf der ersten Anzeigeoberfläche angezeigt bekommen.
Es hat sich weiterhin als vorteilhaft erwiesen, wenn zumindest mittels zumindest zwei zweiten Kameras, insbesondere mittels drei zweiten Kameras, der zweite Raum erfasst wird. Insbesondere kann auch vorgesehen sein, dass alternativ oder zusätzlich mittels zumindest zwei ersten Kameras, insbeson- dere mittels drei ersten Kameras, der ersten Anzeigevorrichtung, der erste Raum und/oder die Person erfasst wird. Insbesondere kann mittels der zumindest zwei Kameras, insbesondere mittels der drei Kameras, eine besonders zuverlässige Aufnahme des Raums ermöglicht werden, sodass insbesondere eine besonders vorteilhafte Darstellung des Raumausschnitts ab- hängig von der Augenposition der Person realisiert werden kann. Insbesondere können dadurch die unterschiedlichen Blickwinkel besonders realistisch dargestellt werden, da die zumindest zwei Kameras den Raum aus unterschiedlichen Richtungen erfassen können und dadurch der Raum verbessert dargestellt werden kann. Dadurch kann ebenfalls die Möglichkeit geschaffen werden ein Hologramm beziehungsweise ein dreidimensionales Bild anzeigen zu können.
Gemäß einer weiteren vorteilhaften Ausgestaltungsform kann zumindest eine erste Kamera der ersten Erfassungseinrichtung und/oder die zweite Kamera als bildaufnehmende Folie ausgebildet werden und/oder zumindest die erste Anzeigeoberfläche als bildgebende Folie ausgebildet werden. Dadurch kann besonders bauraumsparend die Anzeigevorrichtung bereitgestellt werden, die sowohl die bildaufnehmende Folie als auch die bildgebende Folie auf- weist. Beispielsweise kann dann eine Kraftfahrzeugscheibe beziehungsweise ein Spiegel als Anzeige beziehungsweise Aufnahmegerät benutzt werden. Dadurch lässt sich bauraumsparend und auf einfache Art und Weise bei vielen Trägermedien der Folie eine derartige Anzeigevorrichtung einbauen, sodass besonders einfach und komfortabel eine Kommunikation zwischen einer Person und dem Raum beziehungsweise zwischen einer Person einer weiteren Person durchgeführt werden kann.
Vorteilhaft ist weiterhin, wenn die bildaufnehmende Folie und/oder die bildgebende Folie auf einem ersten Trägerelement der ersten Anzeigevorrich- tung ausgebildet wird. Als Trägerelement kann beispielsweise eine Scheibe beziehungsweise ein Spiegel herangezogen werden. Insbesondere kann dann innerhalb eines Kraftfahrzeugs eine Kraftfahrzeugscheibe beziehungsweise ein Kraftfahrzeugspiegel als Trägerelement herangezogen werden. Dadurch ist es ermöglicht, dass mittels eines einzigen Trägerelements so- wohl ein Bild aufgenommen werden kann, als auch ein Bild angezeigt werden kann. Dies ist besonders komfortabel und bauraumsparend.
Bevorzugt kann weiterhin vorgesehen sein, dass eine LCD-Folie mit auf dem ersten Trägerelement angeordnet ist, welche pixelweise abdunkelbar ist, so dass Tiefen Informationen der bildgebenden Folie verbessert durch die Person wahrnehmbar ist. Insbesondere können durch die LCD-Folie nur die Bereiche abgedunkelt werden, auf welchen auch ein Bild beziehungsweise Teile des Bilds dargestellt sind, so dass durch die Bereiche, wo kein Bild dargestellt ist, weiterhin durch die Person hindurchgesehen werden kann. In einer weiteren vorteilhaften Ausgestaltungsform kann die bildaufnehmen- de und die bildgebende Folie als ein einziges einstückiges Folienelement bereitgestellt werden. Mit anderen Worten kann auf das Trägerelement ein einziges Folienelement angeordnet werden, welches sowohl bildaufnehmend als auch bildgebend ausgebildet ist. Dadurch lässt sich besonders einfach das Folienelement, welches sowohl Erfassen als auch Anzeigen kann, auf dem Trägerelement anordnen, wodurch sowohl Montageaufwand als auch Bauraum eingespart werden kann.
Ein weiterer Aspekt der Erfindung betrifft ein System mit einer ersten Anzeigevorrichtung und einer zweiten Anzeigevorrichtung, welche dazu ausgebildet sind, ein Verfahren nach einem der vorhergehenden Aspekte durchzuführen. Die erste Anzeigevorrichtung ist über ein Netzwerk mit zumindest der zweiten Anzeigevorrichtung zum Informationsaustausch gekoppelt. Das Netzwerk kann dabei sowohl drahtgebunden als auch drahtlos ausgebildet sein.
Vorteilhafte Ausgestaltungsformen des Verfahrens sind als vorteilhafte Aus- gestaltungsformen des Systems anzusehen, wobei das System dazu gegenständliche Merkmale aufweist, die eine Durchführung des Verfahrens ermöglichen. Aus diesem Grund sind die entsprechenden Weiterbildungen des Systems hier nicht noch einmal beschrieben. Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
Fig. 1 eine schematische Ansicht einer Ausführungsform eines Systems mit zwei Anzeigevorrichtungen zur Kommunikation zwi- sehen zwei Personen; eine schematische Perspektivansicht einer Ausführungsform des Systems mit einem ersten und einem zweiten Raum; und Fig. 3 eine weitere schematische Perspektivansicht des Systems in einem Kraftfahrzeug zur Kommunikation zwischen zwei Personen. Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar. In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
Fig. 1 zeigt eine schematische Ansicht einer Ausführungsform eines Systems 1 . Das System 1 weist zumindest eine erste Anzeigevorrichtung 2 und zu- mindest eine zweite Anzeigevorrichtung 3 auf. Die erste Anzeigevorrichtung 2 ist über ein Netzwerk 4 mit der zweiten Anzeigevorrichtung 3 zum Informationsaustausch gekoppelt. Das Netzwerk 4 kann dabei sowohl drahtgebunden als auch drahtlos ausgebildet sein. Die erste Anzeigevorrichtung 2 weist eine erste Anzeigeoberfläche 5 auf und die zweite Anzeigevorrichtung 3 weist eine zweite Anzeigeoberfläche 6 auf. Ferner weist die erste Anzeigevorrichtung 2 zumindest eine erste Kamera 7, vorliegend drei erste Kameras 7, auf. Mit den Kameras 7 kann ein erster Raum 8 erfasst werden.
Mit den Kameras 7 kann ein jeweiliger Erfassungsbereich E1 , E2, E3 erfasst werden, sodass der erste Raum 8, insbesondere vollständig, erfasst werden kann. Die zweite Anzeigevorrichtung 3 weist zumindest eine zweite Kamera 9 auf, vorliegend insbesondere drei zweite Kameras 9. Mit den zweiten Kameras 9 kann ein zweiter Raum 10 erfasst werden. Insbesondere kann durch eine jeweilige Kamera 9 ein jeweiliger Erfassungsbereich E4, E5, E6 erfasst wer- den, wodurch der Raum 10 insbesondere vollständig erfasst werden kann.
Es ist vorgesehen, dass mittels den zweiten Kameras 9 der zweite Raum 10 erfasst wird und mittels den ersten Kameras 7 der ersten Anzeigevorrichtung 2 eine Augenposition 1 1 einer ersten Person 12 erfasst wird. Ein zweiter Raumausschnitt 13, welcher zumindest bereichsweise den zweiten Raum 10 darstellt, wird abhängig von der erfassten Augenposition 1 1 als ein erstes Bild 14 auf der ersten Anzeigeoberfläche 5 angezeigt.
Insbesondere ist vorgesehen, sollte sich die erste Person 12, insbesondere die Augenposition 1 1 der ersten Person 12, verändern, so wird der zweite Raumausschnitt 13 entsprechend der Augenposition 1 1 für die erste Person 12 angepasst. Dadurch entsteht eine Art„Fensterblick" für die erste Person 12, sodass die erste Person 12 mittels der ersten Anzeigevorrichtung 2 durch eine Art Fenster blicken kann, und so den zweiten Raum 10, wie durch ein Fenster entsprechend, angezeigt bekommt. Bei einer Veränderung der Augenposition 1 1 verändert sich somit auch der Blick durch das Fenster.
Insbesondere kann vorgesehen sein, dass neben dem Bild 14 weitere Informationen über den zweiten Raum 10 auf der ersten Anzeigevorrichtung 2 bereitgestellt werden. Beispielsweise kann eine Temperatur und/oder eine Oberflächenbeschaffenheit und/oder eine Bewegung mit auf der Anzeigevorrichtung 2 dargestellt werden.
Es kann weiterhin vorgesehen sein, dass ein erster Raumausschnitt 15 des ersten Raums 8 auf der zweiten Anzeigeoberfläche 6 der zweiten Anzeigevorrichtung 3 angezeigt wird. Insbesondere kann mittels den zweiten Kameras 9 eine zweite Augenposition 16 einer zweiten Person 17, welche sich in dem zweiten Raum 16 befindet, erfasst werden und ein zweites Bild 18 des ersten Raumausschnitts 15 abhängig von der zweiten Augenposition 16 auf der zweiten Anzeigeoberfläche 6 entsprechend angepasst werden. Insbesondere kann dadurch auch für die zweite Person 17 eine Art Fensterblick geschaffen werden, sodass auch die zweite Person 17 über die zweite Anzeigevorrichtung 3 durch das„Fenster" hindurchschaut und den ersten Raum 8 abhängig von der zweiten Augenposition 16 entsprechend betrachten kann.
Insbesondere kann vorgesehen sein, dass die erste Anzeigeoberfläche 5 und/oder die zweite Anzeigeoberfläche 6 semitransparent ausgebildet be- reitgestellt werden und zumindest das erste Bild 14 und/oder das zweite Bild 18 als erweiterte Realität auf der ersten Anzeigeoberfläche 5 und/oder auf der zweiten Anzeigeoberfläche 6 angezeigt werden. Mit anderen Worten kann die erste Person 12 durch die semitransparente Anzeigeoberfläche 5 hindurchsehen und eine Umgebung 19 der ersten Anzeigevorrichtung 2 wahrnehmen. Gleichzeitig kann das erste Bild 14 auf die erste Anzeigeoberfläche 5 projiziert werden und als erweiterte Realität betrachtet werden. Ebenfalls möglich ist, dass die zweite Person 17 durch die zweite Anzeigeoberfläche 6 hindurchsieht und die zweite Umgebung 20 der zweiten Anzeigevorrichtung 3 wahrnimmt und das zweite Bild 18 als erweiterte Realität auf der Anzeigenoberfläche 6 angezeigt wird.
Ferner kann vorgesehen sein, dass zumindest die erste Kamera 7 und/oder die zweite Kamera 9 als jeweilige bildaufnehmende Folie 21 ausgebildet werden und/oder zumindest die erste Anzeigeoberfläche 5 und/oder die zweite Anzeigeoberfläche 6 als bildgebende Folie 22 ausgebildet werden.
Fig. 2 zeigt eine schematische Perspektivansicht des Systems 1 . Die erste Person 12 blickt durch die erste Anzeigevorrichtung 2, wie durch ein Fenster, hindurch und kann die zweite Person 17 im zweiten Raum 10 erkennen. Die zweite Person 17 blickt durch die zweite Anzeigevorrichtung 3 hindurch, und kann die erste Person 12 im ersten Raum 8, wie durch ein Fenster, wahrnehmen. Insbesondere kann bei einem Perspektivwechsel beziehungsweise bei einem Positionswechsel der Personen 12, 17 die jeweilige Anzeige der Raumausschnitte 13, 15 angepasst werden, sodass eine besonders reali- tätsnahe Kommunikation zwischen der ersten Person 12 und der zweiten Person 17 durchgeführt werden kann. Insbesondere kann es hier ermöglicht werden, dass beispielsweise neben dem Bild auch Toninformationen mit übertragen werden können. Es kann auch eine weitere Kommunikation mit zumindest einer weiteren dritten Anzeigevorrichtung realisiert werden, wobei dann ein drittes Bild zusätzlich oder anstatt auf den jeweiligen Anzeigeoberflächen 5, 6 angezeigt werden kann.
Fig. 3 zeigt eine weitere schematische Perspektivansicht des Systems 1 . In der Fig. 3 ist der Perspektivwechsel schematisch dargestellt. Die erste Person 12 sieht durch die erste Anzeigevorrichtung 2, insbesondere durch die erste Anzeigeoberfläche 5, hindurch und kann die zweite Person 17, welche vorliegend als Kleinkind dargestellt ist, erblicken. Bei dem vorliegenden Beispiel kann beispielsweise die erste Person 12 auf einem Vordersitz eines Kraftfahrzeugs sitzen und beispielsweise durch eine Frontscheibe blicken, welche die Anzeigevorrichtung 2 aufweist. Das Kind 17 kann beispielsweise auf sitzen in einem Fondbereich sitzen und es kann beispielsweise die zweite Anzeigevorrichtung 3 in einem Sitz der Vordersitze untergebracht sein. Die erste Person 12 sieht mit anderen Worten aus der Windschutzscheibe her- aus und kann die zweite Person 17, welche sich beispielsweise im Fondbereich aufhält, durch die Windschutzscheibe beziehungsweise auf der Anzeigevorrichtung 2, 3, welche auf der Windschutzscheibe angeordnet ist, betrachten. Insbesondere kann vorgesehen sein, dass die erste Person 12 und der erste Raumausschnitt 15 als 3-dimensionales zweites Bild 18 auf der zweiten Anzeigeoberfläche 6 angezeigt werden und/oder die zweite Person 17 und der zweite Raumausschnitt 13 als 3-dimensionales erstes Bild 14 auf der ersten Anzeigeoberfläche 6 angezeigt werden.
Des Weiteren kann insbesondere vorgesehen sein, dass die bildaufnehmende Folie 21 und/oder die bildgebende Folie 22 auf einem ersten Trägerelement 23 der ersten Anzeigevorrichtung 2 und/oder der zweiten Anzeigevorrichtung 3 ausgebildet wird. Insbesondere ist die bildaufnehmende und die bildgebende Folie 21 , 22 als ein einziges einstückiges Folienelement bereitgestellt.
Bevorzugt kann weiterhin vorgesehen sein, dass eine LCD-Folie mit auf dem ersten Trägerelement 23 angeordnet ist, welche pixelweise abdunkelbar ist, so dass Tiefen Informationen der bildgebenden Folie 22 verbessert durch eine Person 12, 17wahrnehmbar ist. Insbesondere können durch die LCD- Folie nur die Bereiche abgedunkelt werden, auf weichen auch ein Bild 14, 18 beziehungsweise Teile des Bilds 14, 18 dargestellt sind, so dass durch die Bereiche, wo kein Bild 14, 18 dargestellt ist, weiterhin durch eine Person 12, 17 hindurchgesehen werden kann.
Ferner zeigt die Fig. 3 in den Fig. 3a bis 3c unterschiedliche Perspektiven. In der Fig. 3a blickt die erste Person 12 gerade durch die erste Anzeigenober- fläche 5 hindurch und sieht somit die zweite Person 17 in einer Frontansicht.
In der Fig. 3b hat die erste Person 17 die Augenposition 1 1 geändert, insbesondere vorliegend den Blick nach rechts gerichtet, sodass nun die zweite Person 17 entsprechend gedreht auf der ersten Anzeigeoberfläche 5 ange- zeigt wird.
In der Fig. 3c hat die erste Person 12 die Blickrichtung nach links gewendet, sodass die zweite Person 17 entsprechend dem linken Blickwinkel der ersten Person 12 auf der ersten Anzeigeoberfläche 5 dargestellt wird.
Insgesamt zeigen die Beispiele, wie durch die Erfindung die Nutzung eines Volumenhologramms zur Erfassung und Übertragung räumlicher Inhalte in einem Moving Virtual Space realisiert werden kann.

Claims

PATENTANSPRÜCHE:
Verfahren zum Anzeigen zumindest eines Raumausschnitts (13, 15) zumindest eines Raums (8, 10) auf einer ersten Anzeigeoberfläche (5) einer ersten Anzeigevorrichtung (2) für eine erste Person (12), wobei mittels zumindest einer zweiten Kamera (9) ein zweiter Raumausschnitt (13) eines zweiten Raums (10), in welchem sich die zweite Anzeigevorrichtung (3) befindet, erfasst wird und der zweite Raumausschnitt (13) als erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt wird, wobei mittels der zweiten Kamera (9) der zweite Raum (10) erfasst wird und mittels zumindest einer ersten Erfassungseinrichtung (7') eine Augenposition (1 1 ) der ersten Person (12) erfasst wird und ein von der er- fassten Augenposition (1 1 ) abhängiger zweiter Raumausschnitt (13) des erfassten zweiten Raums (10) als erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt wird.
Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass
mittels zumindest einer ersten Kamera (7) der ersten Erfassungseinrichtung (7') die Person (12) und ein erster Raum (8), in welcher sich die erste Person (12) befindet, erfasst wird, und ein erster Raumausschnitt (15) als zweites Bild (18) auf einer zweiten Anzeigeoberfläche (6) der zweiten Anzeigevorrichtung (3) angezeigt wird.
Verfahren nach Anspruch 2,
dadurch gekennzeichnet, dass
mittels der zweiten Kamera (9) der zweiten Anzeigevorrichtung (3) eine zweite Augenposition (16) einer zweiten Person (17), welche sich in dem zweiten Raum (10) befindet, erfasst wird und das zweite Bild (18) des ersten Raumausschnitts (15) abhängig von der zweiten Augenposition (16) auf der zweiten Anzeigeoberfläche (6) angepasst wird.
4. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass die erste Person (12) und der erste Raumausschnitt (8) als 3- dimensionales zweites Bild (18) auf der zweiten Anzeigeoberfläche (6) angezeigt werden und/oder eine zweite Person (17) und der zweite Raumausschnitt (13) als 3-dimensionales erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt werden.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
zumindest die erste Anzeigeoberfläche (5) semitransparent ausgebildet bereitgestellt wird und zumindest das erste Bild (14) als erweiterte Realität auf der ersten Anzeigeoberfläche (5) angezeigt wird.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
zumindest mittels zumindest zwei zweiten Kameras (9), insbesondere mittels drei zweiten Kameras (9), der zweite Raum (10) erfasst wird.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
zumindest eine erste Kamera (7) der ersten Erfassungseinrichtung (7') und/oder die zweite Kamera (9) als bildaufnehmende Folie (21 ) ausgebildet werden und/oder zumindest die erste Anzeigeoberfläche (5) als bildgebende Folie (22) ausgebildet werden.
Verfahren nach Anspruch 7,
dadurch gekennzeichnet, dass
die bildaufnehmende Folie (21 ) und/oder die bildgebende Folie (22) auf einem ersten Trägerelement (23) der ersten Anzeigevorrichtung (2) und/oder der zweiten Anzeigevorrichtung (3) ausgebildet wird.
9. Verfahren nach Anspruch 7 oder 8,
dadurch gekennzeichnet, dass
die bildaufnehmende und die bildgebende Folie (21 , 22) als ein einziges einstückiges Folienelement bereitgestellt werden. System (1 ) mit einer ersten Anzeigevorrichtung (2) und einer zweiten Anzeigevorrichtung (3), welche dazu ausgebildet sind, ein Verfahren nach einem der Ansprüche 1 bis 9 durchzuführen, wobei die erste Anzeigevorrichtung (2) über ein Netzwerk (4) mit zumindest der zweiten Anzeigevorrichtung (3) zum Informationsaustausch gekoppelt ist.
EP18762765.8A 2017-09-22 2018-07-31 Verfahren und system zum anzeigen zumindest eines raumausschnitts, wobei der raumausschnitt abhängig von einer augenposition einer person angezeigt wird Pending EP3685211A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017216843.9A DE102017216843B4 (de) 2017-09-22 2017-09-22 Verfahren und System zum Anzeigen zumindest eines Raumausschnitts, wobei der Raumausschnitt abhängig von einer Augenposition einer Person angezeigt wird
PCT/EP2018/070783 WO2019057378A1 (de) 2017-09-22 2018-07-31 Verfahren und system zum anzeigen zumindest eines raumausschnitts, wobei der raumausschnitt abhängig von einer augenposition einer person angezeigt wird

Publications (1)

Publication Number Publication Date
EP3685211A1 true EP3685211A1 (de) 2020-07-29

Family

ID=63452597

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18762765.8A Pending EP3685211A1 (de) 2017-09-22 2018-07-31 Verfahren und system zum anzeigen zumindest eines raumausschnitts, wobei der raumausschnitt abhängig von einer augenposition einer person angezeigt wird

Country Status (5)

Country Link
US (2) US11068053B2 (de)
EP (1) EP3685211A1 (de)
CN (1) CN111133363A (de)
DE (1) DE102017216843B4 (de)
WO (1) WO2019057378A1 (de)

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP727598A0 (en) 1998-11-23 1998-12-17 Dynamic Digital Depth Research Pty Ltd Improved teleconferencing system
US6919907B2 (en) * 2002-06-20 2005-07-19 International Business Machines Corporation Anticipatory image capture for stereoscopic remote viewing with foveal priority
US20070002130A1 (en) 2005-06-21 2007-01-04 David Hartkop Method and apparatus for maintaining eye contact during person-to-person video telecommunication
US20130021476A1 (en) * 2008-10-10 2013-01-24 Trummer Marcus A Child seat safety system
US8317329B2 (en) * 2009-04-02 2012-11-27 GM Global Technology Operations LLC Infotainment display on full-windshield head-up display
US8823769B2 (en) * 2011-01-05 2014-09-02 Ricoh Company, Ltd. Three-dimensional video conferencing system with eye contact
DE102011083662B4 (de) 2011-09-29 2022-02-17 Robert Bosch Gmbh Anzeigevorrichtung für einen Insassen eines Fahrzeugs, Fahrzeug und Verfahren zur Generierung einer Anzeige in einem Sichtfeld des Insassen
WO2014055058A1 (en) * 2012-02-15 2014-04-10 Thomson Licensing Video conference system and method for maintaining participant eye contact
US9485459B2 (en) * 2012-12-14 2016-11-01 Biscotti Inc. Virtual window
DE102013210887B4 (de) 2013-06-11 2019-12-12 Robert Bosch Gmbh Optische Sensoranordnung für ein Fahrzeug und Fahrzeug mit einer derartigen Sensoranordnung
CN203623529U (zh) * 2013-11-15 2014-06-04 福特环球技术公司 监视***
DE102014204691A1 (de) 2014-03-13 2015-09-17 Robert Bosch Gmbh Bildaufnahmevorrichtung, insbesondere zur Fahrzeugvermessung
US9602767B2 (en) * 2014-10-10 2017-03-21 Microsoft Technology Licensing, Llc Telepresence experience
CN105825493B (zh) * 2015-01-09 2019-05-03 华为技术有限公司 图像配准方法和装置
EP3274986A4 (de) 2015-03-21 2019-04-17 Mine One GmbH Virtuelle 3d-verfahren, -systeme und -software
US10009405B2 (en) 2015-04-27 2018-06-26 International Business Machines Corporation Dynamically adjusting quality of service using cognitive focus of attention detection
US9942522B2 (en) * 2015-08-19 2018-04-10 Faraday&Future Inc. In-vehicle camera system
CN106707576A (zh) 2015-11-13 2017-05-24 小米科技有限责任公司 Lcd面板、终端及感光控制方法
US9681096B1 (en) * 2016-07-18 2017-06-13 Apple Inc. Light field capture
KR20230130773A (ko) * 2016-09-13 2023-09-12 매직 립, 인코포레이티드 감각 안경류

Also Published As

Publication number Publication date
WO2019057378A1 (de) 2019-03-28
US11068053B2 (en) 2021-07-20
DE102017216843A1 (de) 2019-03-28
DE102017216843B4 (de) 2024-03-21
CN111133363A (zh) 2020-05-08
US20200310536A1 (en) 2020-10-01
US11422621B2 (en) 2022-08-23
US20210255702A1 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
DE102005000739B4 (de) Fahrzeug-Sichtunterstützungssystem
EP3394708B1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
DE102012203491B4 (de) Elektronisches Rückspiegel-System
DE102014006732A1 (de) Bildüberlagerung von virtuellen Objekten in ein Kamerabild
WO2019068477A1 (de) Kinetosefreies betrachten eines digitalen inhalts in einem fahrzeug
DE102014002493A1 (de) System mit und Verfahren zum automatischen Ein-/Umschalten einer Einstellvorrichtung für eine Head-up-Display-Einrichtung
DE102014119317A1 (de) Verfahren zur Darstellung eines Bildüberlagerungselements in einem Bild mit 3D-Information, Fahrerassistenzsystem und Kraftfahrzeug
DE102015004749A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
WO2018215332A1 (de) Externe darstellung von bildaufnahmen eines fahrzeuginnenraums in einer vr-brille
DE102014208048A1 (de) System und Verfahren zur Personalisierung eines Ausstellungsraums
DE102016217037B4 (de) Verfahren zum Betreiben einer Anzeigeeinrichtung eines Kraftfahrzeugs mit einer digitalen Anzeigefläche und Kraftfahrzeug
DE102005048232A1 (de) Rückfahrkamerasystem und Verfahren zum Anzeigen von Informationen zu einer rückwärtigen Sicht aus einem Fahrzeug
DE102014010309B4 (de) Anzeigen von zusätzlichen Inhalten in einer virtuellen Szenerie
DE102015007246B4 (de) Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem für ein Kraftfahrzeug
WO2019057378A1 (de) Verfahren und system zum anzeigen zumindest eines raumausschnitts, wobei der raumausschnitt abhängig von einer augenposition einer person angezeigt wird
EP3834058A1 (de) Verfahren und system zum betreiben von zumindest zwei von jeweiligen fahrzeuginsassen am kopf getragenen anzeigeeinrichtungen
DE102011080556B4 (de) Videosystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Videosystems
DE102011088492A1 (de) Navigationssystem mit einer verbesserten Kartendarstellung
WO2019063284A1 (de) Verfahren und system zum durchführen eines virtuellen treffens zwischen wenigstens einer ersten person und einer zweiten person
DE102020134814A1 (de) Vorrichtung zum Überwachen von Umgebungen eines Fahrzeugs
DE102004032586B4 (de) Verfahren zur Erzeugung einer dreidimensionalen Darstellung
WO2013178358A1 (de) Verfahren zur räumlichen visualisierung von virtuellen objekten
DE102014119323B4 (de) Verfahren zum Erzeugen einer personenspezifischen Information eines Fahrzeuginsassen, Einrichtung und Kraftfahrzeug
DE102011078264B4 (de) Kommunikationssystem und Verfahren
DE102015012134A1 (de) Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20200422

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIN1 Information on inventor provided before grant (corrected)

Inventor name: KEZZE, MUHAMMAD ALI

Inventor name: KLUG, MARKUS

Inventor name: SCHWAGER, ANDRE

Inventor name: SCHWARTZE, SEBASTIAN

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
PUAG Search results despatched under rule 164(2) epc together with communication from examining division

Free format text: ORIGINAL CODE: 0009017

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20220614

B565 Issuance of search results under rule 164(2) epc

Effective date: 20220614

RIC1 Information provided on ipc code assigned before grant

Ipc: G02B 27/01 20060101ALI20220610BHEP

Ipc: H04N 21/00 20110101ALI20220610BHEP

Ipc: H04N 13/00 20180101ALI20220610BHEP

Ipc: H04N 7/14 20060101ALI20220610BHEP

Ipc: B60K 37/02 20060101ALI20220610BHEP

Ipc: G02B 27/00 20060101AFI20220610BHEP

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230529