EP3449340A1 - Dispositif et procede de partage d'immersion dans un environnement virtuel - Google Patents

Dispositif et procede de partage d'immersion dans un environnement virtuel

Info

Publication number
EP3449340A1
EP3449340A1 EP17725317.6A EP17725317A EP3449340A1 EP 3449340 A1 EP3449340 A1 EP 3449340A1 EP 17725317 A EP17725317 A EP 17725317A EP 3449340 A1 EP3449340 A1 EP 3449340A1
Authority
EP
European Patent Office
Prior art keywords
target
immersive
display
source
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP17725317.6A
Other languages
German (de)
English (en)
Inventor
Jean-Baptiste DE LA RIVIERE
Valentin LOGEAIS
Cédric KERVEGANT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR1653758A external-priority patent/FR3050834B1/fr
Priority claimed from FR1659160A external-priority patent/FR3056770B1/fr
Priority claimed from FR1659768A external-priority patent/FR3057430B1/fr
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of EP3449340A1 publication Critical patent/EP3449340A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Definitions

  • the present invention belongs to the field of virtual reality and the presentation of virtual environments and the sharing of virtual environments.
  • the invention relates to a device and a method for sharing the immersion in a virtual environment with users having means of immersion other than the means having generated the virtual environment.
  • one or more users of an immersion system in a virtual environment are immersed in the virtual environment by means of a material environment producing stimuli to give users sensations that are close, if not identical, if not supposed, of those that would be felt in a real environment that the virtual environment is supposed to reproduce.
  • the representation is not necessarily realistic but can also be distorted, attenuated or exaggerated in certain effects, to produce particular sensations such as increased perception of phenomena in the virtual world.
  • a scale effect a user can be immersed in a microscopic universe that is normally inaccessible to him.
  • a user can be immersed to observe a non-visible environment in ordinary conditions such as aerodynamic flow, or to observe a representation of a non-physical environment such as a database visualized in 3D.
  • the same virtual environment is shared among multiple users. Subsequently, it will be considered a visual representation of the virtual environment, two or three dimensions, and it will be more particularly the problems and solutions related to this visual representation in the context of the invention.
  • a known solution to allow at least two users to be immersed in a virtual environment is to duplicate the data used to build the visual representation of the virtual environment on two immersive systems, each system being assigned to a user, to obtain on each of the two systems rendering real time corresponding to the point of view of each user associated with a system.
  • the information relating to the position and or the interactions made by each of the users are synchronized to allow each of the virtual environments reproduced on each of the systems to be in an identical state.
  • This solution has the advantage of allowing each of the users sharing the immersion to have their own point of view on the shared virtual environment.
  • a user immersed by means of a first immersive system can look at the left side of an object and a second user immersed in the same virtual environment by means of a second immersive system can simultaneously look at the right side of the same object.
  • each of the immersive systems must have the data used to build the virtual environment, and its visual representation, and of all the applications, in particular software, making it possible to exploit these data, conditions which impose go through a step of duplication of data and have licenses, which can be expensive, on the software implemented on each of the systems.
  • Another disadvantage of this solution is to require on each immersive system digital processing systems with sufficient performance to generate in real time the images of the virtual environment displayed on the display means of the immersive system, even greater performance when the immersive system must operate a three-dimensional environment and or produce a three-dimensional representation.
  • Another disadvantage of this solution is that the comfort of sharing the experience of the virtual world very much depends on the quality of the network communication means set up. Because sharing is based on data synchronization between multiple immersive systems, the latency times introduced by the network communication means affect the speed at which data from a remote immersive system is updated in a given immersive system, causing potentially significant difference between the actual state of the virtual environment at a given instant of the immersive system remote and that retranscribed within the immersive system considered at the same time.
  • images produced by an immersive system for a user are filmed by a camera carried by the user, oriented to show the images in the user's field of view, and are transmitted to be observed on a screen by people more or less distant.
  • this method does not offer the quality expected by a remote person to observe a virtual environment because of the exploitation of the image filmed on a single screen and the fact that the filmed image generally includes defects and artifacts in because of the implementation by the immersive system of image display systems comprising several screens assembled to form the immersive environment.
  • people who observe the image remotely are passive and have no interaction with said images.
  • such a solution is not conceivable when the immersive system implements a virtual reality headset, the images being in this case displayed very close to the eyes of the user.
  • the skilled person knows that the images are composed to be viewed from a given location of the display system and that viewed from another location the images are seen distorted and with connection faults when it is implemented multiple screens.
  • the invention provides a solution to the various problems of the prior art in the field of immersion of an observer in a virtual environment generated for another system.
  • One advantage is to avoid increasing the costs of software licenses. Another advantage is to avoid duplication of data and data transmission constraints.
  • Another advantage is not to be limited in the choice of hardware architectures of each of the immersive systems implemented.
  • Another advantage is to preserve the confidentiality of the data of the virtual environment.
  • the invention relates to an immersion sharing device in a virtual environment, comprising:
  • a source system delivering operating data of a visual representation of the virtual environment, said operating data comprising display data relating to images of said visual representation and including data of the observation conditions in which the visual representation of the virtual environment has been generated;
  • At least one target immersive system comprising a digital processing system delivering images to at least one display system of said target immersive system.
  • the device comprises:
  • means for transforming the display data, representative of images of the visual representation of the virtual environment delivered by the source system associated with data of the observation conditions, for constructing images displayed in the system display (22) of the target immersive system (20), such as the set of images displayed by said display system of said target immersive system, is the result of processing to promote immersion on said target immersive system (20) in the display data during a transition from the viewing conditions transmitted by the source system (10) to actual viewing conditions in the display system (22) of said target immersive system.
  • promoting immersion includes compensating for any visual deformations resulting from the use of display data on different display systems and or under different observation conditions.
  • Encourage immersion may also include changing the position in the virtual environment of the target system of the content portion of the virtual environment visible through the system display system source to present it in a stabilized manner, mitigating the impact of frequent head movements of the user of the source system.
  • the sharing can be done in real time, the transmission of the data then being carried out continuously, or in deferred time.
  • the target immersive system by realizing by the target immersive system the transformation of the display data for the function part of the actual observation conditions, including the observation position data and the observation direction data, in the display system. of the target immersive system, it minimizes the impact of the latency between the display in the target system of the transformed images and the taking into account for the transformation of the display data of the actual observation point in the system of display of the target system.
  • the source system is an immersive system having a source display system displaying images of the display data of a visual representation of a virtual environment generated by said source system.
  • a system is then obtained in which the operating data of the source system is generated with the interaction of a user of the source immersive system, the immersion being able to be shared in real time or in deferred time with an observer of the target system. .
  • the transformation of the display data includes a reconstruction of a 3D virtual representation of a source display system of the physical environment of the source display system, a position of a point of view, observing the observer in the display system of the target system being forced, for the transformation of the display data, to the same position in said 3D virtual representation of the source display system as the observation position of the user in the source display system.
  • the source immersive system includes a real-time measurement system of the viewing direction, and / or the viewing position, in the display system of the source immersive system, of a user who would be immersed in the virtual environment of that system immersive source, and the at least one target immersive system comprises a system for measuring the observation direction, respectively and or the observation position, in the display system of said target immersive system, of an observer who would be immersed in the virtual environment represented on said target immersive system.
  • Partial processing of the display data may be performed on the digital processing means of the source immersive system, or on an ancillary computer connected to a network through which data is transmitted between the source system and at least one target immersive system.
  • said software transforming the display data generated by the source immersive system, representative of the images of the visual representation of the virtual environment of the source system, into display data corresponding to non-dimensional images independent of a structure of a viewing system to display the images, said display data corresponding to dimensionless images being transmitted to the at least one target immersive system.
  • the transformation calculations of the display data that do not depend on the target immersive system are advantageously performed on the source system or an independent annex computer.
  • Such a solution makes it possible, in a device comprising several target immersive systems, to transmit to the different target immersive systems display data in a neutral, dimensionless form, of which only the subsequent processing, specific to the target immersive system, is performed by each of the immersive systems. targets.
  • the dimensionless images correspond to images projected on an inner wall of a sphere, in the center of which sphere is placed the point of observation of the source system, to form the dimensionless images in a solid angle corresponding to the images displayed on the visualization system of the target immersive system and up to four Pi steradians.
  • symbolic representations are advantageously superimposed on the visual representation of the virtual environment represented on the target immersive system to provide the observer with guidance and selection of an observation direction.
  • symbolic representations comprise for example the graphical materialization of a sphere or a grid associated with the representation of horizontal surfaces, for example a floor, and or vertical, for example a wall.
  • Such symbolic representations which can only be materialized temporarily, for example by a command from the observer, or under certain conditions, for example a rapid evolution of the observation conditions of the source system, provide assistance to the observer to facilitate his choice of direction of observation and to identify or find his position in the virtual scene.
  • the display data processing software for constructing images displayed on the display system screen (s) of the at least one target immersive system may also be executed on the calculation means of said target immersive system.
  • the device includes a plurality of target immersive systems simultaneously connected to the source immersive system. It is thus possible with the benefits of the invention to allow many observers, who can be remote and dispersed, to follow the immersion experienced by a user of the source system.
  • a target immersive system may be located at any distance from the source system, the synchronization problems of the visual representation displayed in the target immersive system with the observational conditions of the observer finding precisely a solution in the system. 'invention.
  • the source system includes a digital or analog signal capturing equipment, carrying the display data, generated by the source system and transmitting as digital data said display data corresponding to the captured signal. , directly or indirectly, to at least one target immersive system.
  • the source immersive system includes software, executed on a digital processing system, capturing contents of the display data of the source system, after the display data has been computed, and transmitting under digital data form said contents of the display data captured, directly or indirectly, to the at least one target immersive system.
  • such contents advantageously correspond to a set of data sufficient to reconstruct the images generated by the source system.
  • Said data are, for example, the digital data sent to a display system of the source system, where appropriate before an analog conversion, or data subject to spatial and or temporal compression algorithms to reduce its size, or sets of attributes of each image: outlines, textures, colors ...
  • the contents are for example images, or video streams, in yet another form of stereo images, in another example form a stereo video stream.
  • a form of the contents is determined according to the calculation means of the source system and / or of the target immersive systems, and transmission means of data, to limit as much as possible the delays between the processing of the operating data by the source system and the target immersive system (s) taking into account the performance of the equipment implemented by the entire chain of data transmission and their treatments by the systems.
  • the device includes a data logging system configured to record operating data generated by the source system and to transmit said operating data to at least one immersive target system at a later time.
  • the source system includes an image processing software and a source display system
  • a target immersive system includes a computer graphics calculation software and a visual representation of a virtual environment in the form of images displayed on one or more screens of the display system of said target immersive system and also comprises a display data capture equipment and software corresponding to the images displayed on the display system said target immersive system, so that each of said target and source immersive systems can alternatively be a source system and a target system.
  • the device is in this embodiment particularly suitable for collaborative work between a user and an observer likely to reverse their roles.
  • the two target and source immersive systems that can invert their conditions can be different both in their Hardware configurations that software, the device according to the invention to overcome these points of compatibility constraints usually encountered in known systems.
  • This configuration is also compatible with the simultaneous connection of other target immersive systems.
  • the display system and the processing system of the target immersive system and or the source system are associated with interaction means configured to modify, via the display system and / or the data processing system.
  • immersive system considered, the content and or the behavior of the images displayed by the display system of the source system or the target immersive system considered.
  • each of the users of the source system and observers of the target immersive system has means of intervention to act on the behavior of the displays without destroying their coherence.
  • the interaction means includes a gel control for selectively enabling, and disabling, the freezing of all or part of the display data and / or data of the viewing conditions used to calculate the images to be displayed by the display system of the source system and / or the target immersive system.
  • the interaction means of the target immersive system includes a freeze control of a subset of the viewing conditions in the display system of the source system and or the target immersive system.
  • the interaction means of the at least one target immersive system are further configured to point and or annotate the images displayed by the display system of said target immersive system.
  • annotations are for example materialized in the form of incrustations in the images.
  • data characterizing the scores or annotations formed on images of a target immersive system are transmitted via the transmission means to at least one other connected immersive system. It is thus possible for this other system, the source system or another target system, receiving this data to process this data for display.
  • the interaction means comprise for example one or more sensitive surfaces to the touch or the presence of a hand or a finger, and or one or pointers.
  • the possible display system of the source system, and the display system of the at least one immersive target system each belong to one of the categories among implementing flat screens and or curved screens:
  • At least one target immersive system is located in a remote location of the source system, the physical separation of the two systems being such that the user of the source system and the observer of the target immersive system are not able to to communicate without using technical means of communication. It is in this configuration pushed back the spatial limits that allow a sharing of an immersion.
  • at least one target immersive system is located near the source system, the physical separation being such that a user of the source system and an observer of the target immersive system can communicate directly without a physical barrier; ie without the need to implement technical means. It is in this configuration obtained to share an immersion, for example in the context of a collaborative work, without suffering unavoidable artifacts when an observer is close to the user in the hope of feeling the effects.
  • Such a configuration is not merely hypothetical in that it allows, even in the same place, to simulate immersion, with simple hardware, for one or more observers, in the user's virtual environment. of the source system, on the one hand without disturbing said user and on the other hand under optimal conditions since it is impossible for an observer to place himself in the display system of the source system with the same observation conditions as those of the user.
  • the invention also relates to a method of sharing immersion in a virtual environment of an observer in a target immersive system, comprising the steps of:
  • operating data of a visual representation of the virtual environment comprising display data relating to images of said visual representation and including data of conditions. observation means associated with said display data;
  • the method comprises, for each image or set of images to be displayed, between the generation step and the display step, a transformation step, carried out at least partly on the target immersive system. , display data of the virtual environment generated in the generating step, the transforming step comprising determining conditions of effective observation by the operator in the display system of the target immersive system and transform the display data associated with the observation conditions of the step of generating the display data, into display data corresponding to the actual observation conditions by the observer.
  • each image point of a transformed image, at the transformation step to be displayed by the display system of the target immersive system is determined according to at least one observation point. effective in the display system of the target immersive system for maintaining, at a constant proportionality factor for the entire image at a given instant, the same relative direction of observation with respect to any other image point of said transformed image , observed from the actual observation point, that the relative direction between said image points in the display data of the visual representation of the virtual environment generated at the generation stage delivered by the source system and including the image data and the observation condition data associated with said image data.
  • the step of generating display data of the representation of the virtual environment is performed on a source system, which source system is: an image generation system for a virtual display; or a system for broadcasting a flow of images, real and or virtual, generated in real time or recorded; or an immersive system in which a user is immersed.
  • a source system is: an image generation system for a virtual display; or a system for broadcasting a flow of images, real and or virtual, generated in real time or recorded; or an immersive system in which a user is immersed.
  • the reconstitution of a 3D virtual representation of the source display system of the physical environment of the source display system is performed by the source immersive system or the ancillary computer connected to the network.
  • the transforming the display data comprises reconstituting a 3D virtual representation of the source display system, an observer's observation position being forced, for the transformation of the display data, to a same position in said representation virtual 3D display system source that the user's observation position in the source display system.
  • a virtual source display system is created whose position relative to the observer is modeled on the position of the user in the actual source display system.
  • the display system of the source immersive system virtual reconstruction which is displayed on the display system of the target immersive system so that the observation conditions of the observer of said virtual reconstruction of the source system in the target immersive system at least partially correspond to the user's observation conditions of the source immersive system in the source immersive system.
  • This transformation eliminates duplication of data in the virtual environment and can be applied for any form of target immersive system and any software running on the source immersive system.
  • the step of transforming the display data is performed completely on the target immersive system after a step of transmitting the viewing conditions and display data of the virtual environment, generated by the digital processing system of the source immersive system.
  • the step of transforming the display data is performed partly on the source immersive system, or on an ancillary computer connected to a network of the data transmission means, before a transmission step.
  • the display data partially transformed by the source immersive system, or the auxiliary computer are independent of the characteristics and operating data of a target system, thereby making it possible to factorize the processing step or even the reduce to simple processing for display on some target systems.
  • the transformation step includes a display data freezing step of representing the virtual environment or freezing observation conditions, generated in the generating step.
  • the data of the observation conditions in the display system of the target immersive system continue to be taken into account during the display data freezing step or the freezing of the display conditions. 'observation.
  • the observer has the possibility to freeze, at least in part, the representation of the environment on the target system, and momentarily obtain a stable image on which it can for example provide annotations
  • the method includes an initialization step in which the target immersive system initializes a register including data on conditions in which the display data is generated in the generating step.
  • the step of transforming the display data is performed partly on the source immersive system, or on an ancillary computer connected to a network of the data transmission means, before a transmission step.
  • Figure 1 a simplified example of an immersion sharing device in a visual environment with a source immersive system comprising a multi-screen type display system and a target immersive system type flat mono-screen;
  • Figure 2 An illustrated example of image transformation principles, generated in a source immersive system with a display system and observed in a target immersive system with a different display system, to maintain visual immersion conditions ;
  • Figure 3 an illustration of a device comprising several target immersive systems with display systems of different technologies reproducing the virtual environment of the same source immersive system
  • Figure 4 a simplified block diagram of the method according to the invention.
  • a visual immersive system generally comprises a set of hardware and software means for at least: generating images of a visual representation of a virtual environment; display images for at least one user; the displayed images being calculated to represent the virtual environment as it should be perceived by the user according to his observation conditions of the virtual environment.
  • Display system set of hardware means and, if necessary, software comprising means for displaying images, for example one or more display screens arranged between them in space to present images to a user or to an observer , where appropriate using conventional optical systems such as mirrors, semi-transparent plates, collimation optics, filters, etc.
  • the display system is associated, if necessary, with means for determining in real time. , in a frame linked to the screens, the position and or direction of observation, of a user or an observer looking at the images displayed by said screens.
  • Helmet a particular case of a display system in which the screens are fixed on a support carried on the head by the operator.
  • the observation position is fixed in the frame of reference related to the screens and the direction of observation is a function of the movements of the eyes.
  • This type of equipment can be associated with means for real-time monitoring of the orientation, or even the position, of the head in the physical environment, which will not of course change the position of the head of the operator by report to the display system but may be exploited by the calculation software of the representation of the virtual environment to modify the position and the direction of observation in a repository of the virtual environment.
  • Image any form of visual representation displayed on a screen.
  • An image can be fixed, animated resulting from a succession of images in time, resulting from a video stream ...
  • An image can be transmitted for display on a screen by an analog signal or by a set of digital data representing all or part (for example in the case of compressed signals) of an image, or both according to a location considered in the chain of transmission of the image between the generation of the image and its display.
  • Virtual environment an environment defining a set of numerical data defining the characteristics of this environment and necessary for the construction of a visual representation of this environment as it must be perceived.
  • the virtual environment can be the result of a 2D or 3D construction from a digital model.
  • the virtual environment can also be the result of virtualization of a real environment, for example by digitized images or video streams.
  • the virtual environment can also be a combination of a digital model and a real environment following a principle of augmented reality.
  • Immersion A situation in which representations of a virtual environment are presented to one or more people in such a way as to give those people the impression of being physically surrounded by the information contained in the virtual environment.
  • the display system may include a system of reconstructions of the effects of the relief, for example occulting glasses synchronized with the displayed images to present to the user of the immersive system images corresponding to each of his eyes. to produce a stereoscopic effect.
  • the rendered virtual environment can be two-dimensional, 2D, or three-dimensional, 3D.
  • the digital information used by the immersive system can correspond, and often corresponds to, data from a 3D immersive environment, in which case a software application of the immersive system is a synthetic image creation application that elaborates each instant one or more new computer images by digital processing of the 3D information as a function of a position of a point of observation, for example corresponding to an optical center of an objective of a virtual camera.
  • a software application of the immersive system is a synthetic image creation application that elaborates each instant one or more new computer images by digital processing of the 3D information as a function of a position of a point of observation, for example corresponding to an optical center of an objective of a virtual camera.
  • the digital information may also be data of a two-dimensional, 2D environment, such as films, possibly pre-recorded panoramas, which can be digitally processed by a software application to display images viewed from an observation point controlled by the user or controlled by more or less interactive logic.
  • a software application to display images viewed from an observation point controlled by the user or controlled by more or less interactive logic.
  • a single screen, computer or video monitor or a computer telephone can form the display portion of a display system of an immersive system.
  • the exploitation data comprises all the information of a representation of the virtual environment seen in a viewing system by an observer, a situation that can be real or virtual.
  • the operating data includes the data of the observation conditions and the display data.
  • the display data notably comprise information relating to the images generated by a source system 10.
  • the display data comprise attributes of each of the image points of the images generated by the source system 12, these attributes comprising in particular, in addition to luminance and color characteristics, the position of the image point in an image, for example an image. image to be displayed in said display system.
  • the display data is for example information contained in video frames.
  • the data of the observation conditions include data relating to the position from which and to the direction in which a user or an observer looks in an image display system, or with which images have been generated for example by a device for shooting a real environment then virtualized.
  • FIG. 1 illustrates, as an exemplary embodiment, a device 100 comprising two immersive systems, a source immersive system 10 and a target immersive system 20, connected by data transmission means.
  • the source immersive system 10 of FIG. 1 is a known system which comprises, in the illustrated example, a digital processing system 11, comprising a permanent or temporary database 11a for storing digital information defining an environment. virtual, and a display system 12 images generated by the digital processing system.
  • the digital processing system 11 is in practice a computer, of power adapted to real-time image calculations, on which computer graphics calculation software is executed.
  • the database 11 has, in practice a memory or a file storage system, contains a set of data defining the virtual environment and necessary for calculating a visual representation of said virtual environment.
  • the database also includes data relating to the source immersive system itself, in particular parameters relating to the display system 12, including dimensions, positions and screen shapes (12a, 12b, 12c, 12d), on which are displayed the images to form a representation of the virtual environment in which a user 90 is immersed.
  • the calculating means 11 also receive variable values, generally depending on a user 90 in the immersion condition. and or an operator of the immersive system, which are necessary for software for the calculation of synthetic images.
  • the variables here comprise an observation position and an observation direction of the user 90 in a repository of the display system 12, position and direction of observation on which the images representing the virtual environment to be displayed on these depend. screens for presenting, viewed by the user, a correct representation of said virtual environment from a position in said virtual environment where the user is supposed to be.
  • the position and direction of observation to be known for the calculation of each new image displayed are, in a manner known to those skilled in the art, measured or estimated in real time or presupposed.
  • variables are for example orders sent to the digital processing system 11, for example by the user 90 via control members, to act directly or indirectly on the virtual environment.
  • the variables are cyclically processed by the software application that synthesizes the virtual environment to present in real time, that is to say with a latency and a cooling period adapted to the immersion. desired, a point of view in the virtual environment corresponding to a point of view of the user 90 in the display system of the physical immersive system.
  • the display means 12 of the source immersive system 10 of FIG. 1 comprise a plurality of screens 12a, 12b, 12c, 12d forming a multi-screen system with four screens, in the example illustrated, frequently called CAVE in the field.
  • virtual reality determining a volume in which the user 90 can stand and move.
  • an arrangement of two vertical L-shaped screens promotes vertical immersion.
  • an arrangement with three, four or five screens with angles more open than 90 ° favors the immersion of several users simultaneously.
  • Some screens can also be curved, cylindrical or spherical, and avoid or limit the number of juxtapositions of screens forming angles.
  • the screens can also be worn by the user by means of equipment such as viewing headsets, which can be more or less transparent depending on the result sought for the perception of the surrounding physical environment.
  • the source immersive system 10 belongs, in the context of the invention, to a device 100 also comprising at least one target immersive system 20.
  • the target immersive system 20 comprises at least one digital processing system 21 and a display system 22.
  • the target immersive system may be similar, or even identical, in structure and means to or different from the source immersive system 10.
  • the display system 22 of the target immersive system 20 may be identical to the display system 12 of the source immersive system 10 or on the contrary be different, for example by a number of screens implemented, and / or by a form of the screens, and or by the size of the screens, and or by an arrangement of the screen or screens, and or by the fact that the screen or screens are worn by the user or not, and or by the capacity or not of to render images for stereoscopic observation.
  • the display system 22 of the target immersive system has only one screen 22a while the display system 12 of the source immersive system has four.
  • the screen 22a is for example a projection screen, or a conventional video screen, television or computer screen, or even a display screen. computer phone.
  • the digital processing system 21 of the target immersive device 20 mainly comprises a memory, or local database, in which are stored characteristics of the source immersive system and the target immersive system used for the transformation of display data corresponding to the images, and a digital computer on which a display data processing software is executed, the principles of which are explained later in the description.
  • source and target will be used to designate the elements respectively of the source immersive system 10 and the target immersive system 20.
  • source immersive system 10 may be designated “Source system” and the target immersive system designated “target system”.
  • the device 100 also comprises data transmission means 30 between the source system 10 and the target system 20.
  • Such data transmission means 30 consist of any means known in the field of data transmission between computers, which in the case of the invention will be selected according to the data rate which should be ensured, the distance between the immersive systems of the device, the number of connected systems and the resources available in communication means.
  • the data transmission is carried out by a communication network 31 such as the Internet network and the implementation of the interfaces and communication protocols adapted to this network.
  • Data transmission can also implement optical links, radio links, and wired links of different types.
  • the source system 10 when the source system 10 generates the display data of a virtual environment whose images are displayed on the source display system 12, virtual environment in which the User 90 is immersed, and said source system transmits to the target system 20 data relating to the display data generated by the source digital processing system 11.
  • the device 100 may comprise any number of target systems, all the target systems being independent of each other, which may be different in their structures, and operate in a similar way with the data received from the source system.
  • the image calculation software executed on the source digital processing system 11 generates a representation of the virtual environment in which the user 90 of the source system is immersed and produces display data of said representation of the virtual environment for each of the different screens 12a, 12b, 12c, 12d of the source display system 12.
  • This display data is generated according to the parameters that can modify the visual perception of the virtual environment by the user 90, in particular a position in the space of a point from which the user 90 sees each screens 12a, 12b, 12c, 12d of the source display system 12 and an observation direction in which the user is looking, the observation direction corresponding to an optical axis of the means observation, in practice eyes.
  • This position and this direction which are associated with it are designated globally thereafter "point of observation”.
  • the observation point may be unique and for example correspond to the user 90 at an intermediate position between his two eyes.
  • the observation point can also be double, when a perception of the relief is sought by a binocular vision, and then the position of each of the two eyes of the user 90 determines a point of observation.
  • the digital processing system associated with the display system necessarily has data relating to the characteristics and the data. arrangement of the different screens of the display system.
  • the calculated images are displayed on the corresponding screens.
  • the operating data generated by the source system is transmitted, via the data transmission means 30, to the target system.
  • said operating data can be transmitted in any form of data according to a protocol understood by the target system and which allows the reconstruction of the display data and the associated observation conditions.
  • the operating data generated by the source system can not directly produce images displayed correctly on the target display system 22, in particular because of differences in the structure of the target and source display systems, and observation, assigned respectively to the user 90 and the observer 91, in each of the source and target systems that are not correlated.
  • target display 22 is maintained at all times identical to the observation point of the user 90 in a repository of the source display system 12, and assuming that display data generated by the source system is displayed directly under the form of images on system screens target display, they would give an observer 91 of the target system a vision of the virtual environment distorted or unusable.
  • each image through the operating data received from the source system by the target system is transformed. by a display data processing software according to the observation conditions in the source system of the target system.
  • the image processing software is preferably operated, at least in part, by the target digital processing system 21.
  • part of the image processing can also be performed by the source system, or by any system having the ability to communicate with the source and target systems to receive and transmit the necessary data.
  • the transformation of the display data consists mainly of virtually reconstructing the physical environment of the source display system 12 and forcing the observation point of the observer 91 to the same position in the virtual source environment as the point of view. observation of the user 90 in the source display system 12.
  • a virtual 3D representation of the source display system 12 ' is created in the target system 20, as a function of the parameters of the source display system 12, on virtual screens 12' a, 12'd, 12'c of which virtual representation of the source display system are displayed the images of the received display data corresponding to each of the screens 12a, 12d, 13c real source system, see Figure 2. It is thus formed in the target system a 3D virtual environment representing at any time, at the latency period, the source display system 12 with its visual representation of the virtual environment of the source system.
  • the target system 10 then digitally processes the virtual 3D representation of the source display system 12 'to construct a visual representation thereof on the target display system 22 based on the observation conditions of the observer 91 of the target system, in which visual representation on the target display system, the actual, measured or presupposed position and orientation of observation in the target display system are also the position and orientation of observation in the 3D virtual representation of the display system source and which correspond to the actual and measured positions or presuppositions of observation of the user in the real source visualization system, as illustrated in FIG. 2, where a center 40 of the projections corresponds both to the observation point in the 3D virtual representation of the source system and at the actual observation point in the target system e 22.
  • the digital processing corresponds to 3D projections of the images of the 3D virtual representation of the source display system 12 'on the screen (s) of the target display system 22, said projections having as their center of projection the position and observation orientation in the 3D virtual representation of the observer 91.
  • the target system 20 thus presents the observer 91 with a virtual source system in that it reconstructs at any moment the behavior, for the displayed images of the virtual environment, of the source system 10 and that it ensures that, whatever the position and orientation of the observer 91, said observer has a position and an orientation in the virtual 3D representation of the source display system 12 ', identical to that of the user 90 in the source system 10, although that the source and target systems may have different configurations and that the user 90 and the observer 91 have observation conditions that, in practice, evolve independently in their respective immersive systems. For example, for calculating a coherent representation of the virtual environment on the target immersive system, the observation points of the user 90 of the source system and the observer 91 of the target system are superimposed in the 3D virtual representation.
  • each image point 121 of the actual 12 or virtual source display system 12 'in a given direction 42 from the observation point 40 corresponds to an image point 221 of the target display system 22 in the same direction and the image point 221 in the target system then resumes the characteristics (color, brightness ...) of the image point 121 of the source system.
  • This condition is of course valid only when the two image points visually superimposed in the two immersive systems exist.
  • an image point of the source system has no projection equivalent in the target system, it can not be displayed in said target system. Conversely, if an image point of the target system has no projection equivalent in the source system, the image point in said target system will correspond to a "blank" zone in the target system display.
  • the images are displayed by the target system 20 on the screen or screens of the display system of said target system.
  • the position and orientation of the observer 91 of the target system with respect to the target display system 22 are parameters taken into account to effect the transformation of the display data. This consideration is necessary so that the representation of the virtual environment is coherent with the point of view that generated it on the source system and that it is reproduced on the target system the desired immersive effect.
  • the superposition condition of the observation positions is necessary while the superposition condition of the observation directions is optional, and the latter condition is justified only when 'he is sought that the visual representation seen by the observer 91 in the target system 20 is that of the user 90 in the source system, including direction.
  • the observer 91 in the target system has, within the solid angle of the space in which an image is displayed, the possibility of viewing the representation of the virtual environment in a direction different from that in which the user 90 looks at this virtual environment in the source system, but which then corresponds to the visual representation that said user would have in the source system if he looked in the same direction as the observer in the target system.
  • the position of the observation point and the observation orientation of the observer 91 are determined, for example measured in real time and transmitted to the target digital processing system 21, to be taken into account in the data transformation calculations. display. Where appropriate, the position and or direction of observation are simply estimated or presupposed. For example, when several observers are looking at the screen (s) in the target system's display system, average values of the observing conditions of the different observers can be calculated or assumed, being understood as a compromise producing necessarily distorted images displayed by the target system that may be perceived by some observers.
  • a target system 20 which allows an observer 91 to be immersed in a virtual environment created by a source system 10, which may be remote.
  • This result is obtained without transmission of data from the database 11 implemented by the source system, including with a target system 20 whose configuration, in particular of the display system, is different. that of the source system 10. It allows, among other things, to implement in the target system 20 a digital processing system 21 of performance lower than that necessary for the source system 10 to generate the virtual environment. It does not require the implementation of expensive software for calculating computer generated images. It does not require the compatibility of the target and source system display systems, nor does the observer 91 be required to maintain imposed viewing conditions in the target display system 22 to view the images as the user 90 perceives them in the source display system 12.
  • the embodiment of the device 100 described is cited by way of example.
  • the hardware architectures of the source system and the target immersive system (s) may be different from those schematized in the description for performing the same functions.
  • the transformation of the transmitted display data can be carried out by any transformation algorithm that can make the necessary projections, the method described above being only a simplified theoretical illustration of the transformation by spherical projections.
  • the transformation of the display data is advantageously carried out by the target system which knows the definition of its display system 22 and which takes locally, in real time, with a minimum latency, the other parameters which are specific to it, such as the conditions of the display. observation of the observer.
  • the target system must also have the definition of the conditions under which the source system generates the display data, parameters of the display system in particular, for example transmitted at the beginning of connection with a set of data invariable from the data sources. device operating data of the source and target systems, as well as the user's viewing position and orientation 90 in the source display system 12.
  • the transformation of the display data can be carried out in part by the source system, or by another system, provided that the target system transmits the operating data required by the system. processing the display data to produce the images to be displayed on the display system of said target system.
  • the transformations applied to the display data requiring the use of variables specific to the target system 20, in particular the position and direction of observation of the user 91 of said target system are carried out on the system digital processing 21 of said target system, which makes it possible to synchronize the images displayed by the target display system 22 with said variables specific to the target system.
  • the source system 10, or another ancillary calculator performs a first transformation of the operating data into dimensionless operating data, independent of the structure of a display system to display the images, for example assigning the characteristics of each image point associated with a direction of said determined image point in spherical coordinates in an axis system attached to the observation point in the display system 12 of said source system.
  • the target system 20 uses the received non-dimensional operating data to produce display data adapted to its display system 22 by assigning to each point of a screen in a given direction observation conditions in the display system. target display 22 the characteristics assigned to the image point corresponding to the same direction in the dimensionless display data.
  • the target immersive system enables the observer (91) to correctly display a representation of a virtual environment substantially simultaneously with the generation of said representation by another system. immersive.
  • a source system delivering the representation of the virtual environment is not necessarily associated with display means.
  • a source system is for example a record of the display data produced on a system for generating synthetic images, which may be an immersive system or not.
  • a source system is for example a system delivering images of a real world, recorded or real-time, virtualized by said system for transferring display data.
  • Such a source system may also be a system combining the capabilities of producing synthetic images combined with images of a real world according to an augmented reality logic.
  • each eye sees a different image corresponding to different viewing conditions which can lead to transformations of the display data for each of the images. viewing conditions, at least when both source and target systems are configured to display images of the virtual environment with a relief effect.
  • the display data comprise virtual or virtualized images, representations of the virtual environment seen in an observation window of the source system, equivalent to the display system of the source immersive system of the embodiment described. supra.
  • the display data received from the source system by the target immersive system is interpreted to reconstruct, in the display system of the target immersive system, a representation of the environment viewed in the source observation window.
  • the observer is presented to the observer in the immersive system a stable representation of the representation of the environment seen by the source system by ensuring the coherence of the images displayed in the display system of said target immersive system with those of the window of source observation by which this environment is or has been generated and or seen.
  • the target digital processing system 21 has display data synthesis capabilities adapted to its own display system, which can advantageously be exploited to facilitate the understanding and / or reinforcement of the observer of the target system.
  • the target immersive system comprises, where appropriate, all or some of the following characteristics, which can be combined with one another in the target immersive system provided that they are compatible with each other: zones of the display system of the target immersive system, not covering the images transmitted by the source system in the display data, display a display background generated by the calculation means of said target immersive system, in particular for improve the visibility or readability of the displayed representation.
  • the display background has one or more of: a uniform color, gray, or black; zones of different colors, gray or black, whose directions of separations and or transitions correspond to privileged directions of the environment; one or more textures.
  • a texture is superimposed on the image of the observation window. Such a texture increases, if necessary, the quality of the perception of the representation of the environment by the user of the target immersive system by producing a representation corresponding to a customary perception of the environment.
  • the calculation means of the target immersive system are configured to embed one or more interface elements in the display of the target display system, represented as objects with one, two or three dimensions.
  • the user of the target immersive system has a set of functions accessible to him through said interface elements, for example image freezing functions, recording functions, annotation functions. .
  • a position and / or dimensions of the images of the source display data represented in the display system of the target immersive system are a function of a position from which, and or to a direction to which, in the display system of said target immersive system, the observer immersed in said target immersive system looks at said display system of the target immersive system. In this way the movements of said observer are taken into account to correct the displayed images and maintain the vision with an exact perspective.
  • At least a portion of the images of the source display data are maintained displayed in the target display system when said images are theoretically out of a display area of the target display system, said at least a portion of the display image of the viewing window being shown held against an edge of said system display area target display in a direction in the repository of said target display system to which an observer of the target immersive system should move a direction to which it is looking or should move the orientation in the virtual environment of the target display system for closer to the observation direction corresponding to the display data received from the source system.
  • the user of the target immersive system does not totally lose the vision of the environment although its representation is theoretically out of his field of vision, allowing him to intuitively find the direction towards which the gaze must look to find his current position the representation of the virtual environment.
  • a symbol representation is embedded near an edge or attached to an edge of said system; display area in one direction, in the repository of the target display system to which the observer of the target immersive system should move a direction to which he is viewing or should move the orientation in the virtual environment of the display system target to approach the observation direction associated with the display data transmitted by the source system.
  • the target immersive system comprises interaction capabilities by a user of said target immersive system, by real or virtual commands accessible to said user, with the images displayed by the target display system.
  • the interaction capabilities include superimposing annotations, texts and or drawings to the displayed images.
  • the immersive system comprises a recorder of the images displayed by the target visualization system during an immersion session.
  • the invention also relates to a method 200, FIG. 4, for sharing an immersive environment between a source system 10 and at least one system immersive target 20, a device 100, limiting the data exchanged both because of their confidential appearance and limiting the hardware and software requirements of the target system.
  • a method 200, FIG. 4 for sharing an immersive environment between a source system 10 and at least one system immersive target 20, a device 100, limiting the data exchanged both because of their confidential appearance and limiting the hardware and software requirements of the target system.
  • the method there is exchanged between the source system and one or more target systems a set of information or data allowing each target system receiving the source system of the operating data to reconstitute and update in real time a visual representation.
  • each of the source system and the target immersive system or systems that will intervene in the immersion sharing integrates means of connection to transmission means 30 for connecting said source system and immersive systems. targets.
  • each source system and target immersive systems is associated a set of configuration data.
  • the configuration data includes all the information necessary for the physical or virtual description of the source system or the target immersive system, and in particular for its reconstruction at scale 1.
  • the configuration data of an immersive system comprise for example:
  • the configuration data are established for each system, immersive or not, of the device, manually, automatically or semi-automatically depending on the capabilities of the system.
  • some of these data may vary over time, for example in the case of a mobile immersive system whose orientation and or position of the screens vary over time during a period of time. immersion.
  • the configuration data is transmitted to the target system (s) in a manner similar to the operating data as discussed for the following steps.
  • the configuration data can be incorporated into the operating data.
  • a first initialization step 220 the device 100, combining the source systems 10 and targets 20 by means of which an immersion must be provided by the target immersive systems, or even shared with the source system, is initialized.
  • each of the target immersive systems 20 of the device initializes a register of the connected source system, said register advantageously comprising all the configuration data of each of said connected systems, and advantageously all of the configuration data at the less than the source system 10 for the target systems 20.
  • the configuration data, as well as initialization values of variables, initialized by an immersive or non-given system may be limited to the data strictly necessary for the data transmissions and calculations that will have to be performed by said system.
  • all the configuration data of the source system must be accessible by a target immersive system so that said source system can transmit the display data to said target system, the accessibility to these data can be realized in a embodiment of a device 100 for example via a registration in a database local to the digital processing system of said target immersive system.
  • a data server 32a connected to the network 31 of the data transmission means 30, and accessible by each of the source systems 10 and target immersive systems 20, comprises a database in which are stored configuration data of each of the immersive systems or not of said device, at least for those which are necessary during the initialization step, and each of the immersive systems during this initialization step receives from the server the data of configuration, at least for those which are necessary to him considering the transformations which it will have to realize on the data of posting.
  • the database may be updated during the implementation of the method depending on the connection, disconnection or change of role of at least one immersive system. network.
  • the operating data sources include:
  • the data of the observation conditions comprise the position from which and the direction in which, each of the position and direction can be measured or presupposed, the user looks in the source display system 12 at a given time, or in which images have been generated for example by a device for shooting a virtualized real environment.
  • This data is taken into account in calculating the representation of the virtual environment for the attention of a user of the source system immersed in said environment and involved in the construction of the displayed images.
  • the positions and or the direction are presupposed, for example by identification of a position and or ideal orientation to use the display system, or average if several users can be accommodated, or imposed if the immersive system. encourages the user (s) to approach a specific position and orientation.
  • the display data, calculated for each display cycle as a function of a refresh rate of said display data are captured, once calculated, by a software application operated in the digital processing system 11 of the source system.
  • the display data is captured during their transmission to the source display means 12, for example by a connection to the video link 13 of a video equipment 14 between the digital processing system. source 11 and the source display means 12.
  • the captured display data is captured for only one of the viewing conditions, for example the display data corresponding to a single eye, or stereo, depending on the capabilities of the target system to render or not stereoscopic images or according to options selected by an operator of the target system. It is thus possible to reduce the data flow and the bandwidth requirements of the data transmission medium 30.
  • the display data is captured for each of the observation conditions and associated with the corresponding observation conditions in the data. operating.
  • the video equipment 14 thus makes the capture of the display data during their transmission to the source display system 12, for example by reading the signals corresponding to the images on the video link 13, converts said images into a format adapted to their transmissions and transmits them via the data transmission means 30 of the device.
  • the source operating data are sent, directly or indirectly, by the source system to the users of the information contained in said source operating data.
  • the users are for example each of the target immersive systems which are connected to said source system or an associated computer 32b connected to the network 31 which receives the data for retransmitting them to the target systems, possibly after performing a processing of the operating data.
  • a second transformation step 240 the source operating data is transformed according to the configuration data of a target immersive system, and as a function of variables generated by said target immersive system 24, especially the observation data corresponding to the actual viewing conditions in the display system 22 of said target immersive system.
  • the virtual 3D reconstruction of the source display system without an image displayed on display means of the virtual source system, can be cached by the digital processing system of the target immersive system, and thus be reused for the following iterations.
  • the data of the observation conditions of the virtual environment of the source system are the same as the data of the observation conditions of the observer 91 in the displayed virtual environment in the virtual source display system on the target system, the visual representation of said virtual environment being reconstructed for this purpose.
  • This condition is forced so that the images generated by the source system 10 can be seen without deformation by the observer 91 in the target display system 22.
  • the display data initially calculated by the source system therefore do not need to be recalculated for new observation conditions in the target system, the observation conditions, in position and in direction, being virtually superimposed in the virtual environment of the source system and in the virtual environment of the target system.
  • the set of data of the observation conditions can be duplicated to correspond to each of the points of observation.
  • observation or the observation conditions for the second point being limited to relative position data of the second point with respect to the first point, for example distance and direction of the second point with respect to the first point. point, limiting the volume of the observation condition data to be transmitted.
  • the observation data may also correspond to a fictitious observation point, for example a cyclopic eye, and the observation conditions for each of the points being limited to relative position data of each of the real observation points with respect to the observation point. fictitious point.
  • all or part of the operating data transmitted by the source system is frozen either by the source system before transmission or by the target immersive system upon receipt.
  • These may be display data, or observation condition data, or a subset of the observation condition data.
  • the frozen data is no longer issued by the source system, or is issued with constant values, or is temporarily no longer taken into account by the target system and the latest farm data received and processed by the system target are frozen.
  • the gel is controlled by an instruction of one of the source or target systems, for example on an order from the user 90, or from the observer 91, or from an operator of the source system or of the target system.
  • the order can also affect the source system which is then frozen and in this case the target system undergoes the freezing of the concerned data, or affects only the target system which in this case does not necessarily imply the freezing of the source system but only a stop of taking into account the evolutions of the concerned data emitted by the source system.
  • this data freezing step 241 When this data freezing step 241 is activated, the possibility of updating the images on the target immersive system by processing the operating data fixed in said operating freeze mode is maintained, said target immersive system in this case, it is possible to recalculate in real time the display data for the images to be displayed by the target display system 22 as a function of the modification of the observation conditions in said target display system in order to maintain a correct representation of the virtual environment frozen.
  • the display data in the target immersive system is then interpreted, when the corresponding data is frozen, as if the virtual environment were totally static and the user of the system source was no longer moving, resulting in a kind of 3D capture of the state of the source system.
  • the freezing step can also concern all the data relating to the observation conditions, or only a subset of these data. For example, during a freezing step, an operator, a user or an observer may choose whether to freeze the position variables of the observation data and whether to freeze the orientation variables of the observation data. .
  • the data displayed by the virtual source display system no longer varies, and the image points of said virtual source display system on which the scores and or annotations are made are constant.
  • a step 243 for recording the source operating data is activated.
  • said prerecorded source operating data is used by the processing system as source operating data, thereby allowing the target system, which could be said source system, to replay a prerecorded immersion. .
  • a third display step 250 the set of display data resulting from the transformation is transmitted to the target display system 22 whose operating data have been taken into account during the transformation of the images generated by the display. source system.
  • the process is looped back after the third step 250 on the second step 240.
  • the cycle with which the process is looped back to display a new representation of the virtual environment on the display system of the target system a cycle whose time can be constrained by the computational performance of the digital processing systems of each of the source systems and targets, as well as by the performance of the data transmission means by which the data is exchanged between said source and target systems, is repeated each time the target immersive system has acquired operating data corresponding to a representation of the virtual environment on the source system.
  • the calculation is advantageously repeated as quickly as the digital processing systems of the source and target systems allow, at least to provide an observer 91 a perceived immersion coherent with its generation by the source system, for example almost simultaneous with that of the user 90 of the source system when said source system is an immersive system.
  • the notion of observation conditions includes the notions of observation position and or direction of observation. These position and direction parameters can be derived from measurements or analyzes. For example, the direction of observation can be deduced from a position measurement of the two eyes of a user or an observer.
  • Presupposed or predetermined observation conditions can also be used for one or the other of the source system and a target immersive system, or for both, the implementation of the method for adapting the displays by the taking into account the differences between the two systems.
  • the device may comprise a source system and any number of target immersive systems, as shown diagrammatically in FIG. 3 of a device 100 comprising three target immersive systems 20 of different types, that can simultaneously reproduce a same virtual environment generated by the source system in the target systems.
  • the invention makes it possible to perform immersion sharing in numerous immersive system configurations, in particular display systems of said immersive systems, FIG. 3 illustrating possible configurations in a nonlimiting manner.
  • the source system and a target immersive system both include a multi-sided display system.
  • the immersive systems in this case have systems for measuring the position of the observation point and the observation direction of the user or the observer.
  • the source system includes a multi-sided display system and a target system includes a headset type display system.
  • the helmet-type visualization systems use screens that are physically very close to the eyes of the user of the helmet but which are provided, in order to remain usable, with optical systems that provide a collimation that places a virtual image, here considered at home. sense of geometric optics, of the surface of the screen at a sufficient distance from the eye. It is this virtual image which is then considered as the image displayed in the visualization system.
  • the observer using the headset is placed in the virtual environment containing the reconstituted source system at exactly the same position and orientation as those of the source system user in the source system.
  • the source orientation around the axis defined by the center of the two eyes is not taken into account to give a little more freedom to the observer.
  • the observer in the target system sees exactly what the user of the source system sees.
  • the observer using the headset is placed in the virtual environment containing the source system reconstructed at exactly the same position as that of the source system user in the source system.
  • the observer in the target immersive system can look in other directions than the user of the source system.
  • the source system includes a headphone type display system.
  • the configuration information then includes a description of the inverse geometric transformation of the geometric transformation associated with the pixels of the images intended for each of the two eyes as well as the field of vision associated with the helmet.
  • the target immersive system receives the display data directly captured by the capture system and applies to them the geometric transformation described in the configuration information to find flattened images for the left eye and the right eye without the optical deformations. often required for display in this type of immersive helmet type system.
  • the source immersive system is of helmet type and the target immersive system is also helmet type.
  • the transformation performed by the target system then consists in placing around the observer in the target system, in a virtual environment, a moving window in which the contents coming from the source system are displayed, the size of the window depending on the characteristics the source system to at least match the field of view rendered by said source system.
  • the window is displayed all the time in the field of view of the observer, thus imposing that its position and its orientation in the virtual environment exactly correspond to the position and orientation of the user of the system. source in the source system.
  • the position of the observer in the target system is constrained in the virtual environment.
  • the observer can orient his gaze in any direction, even if he only perceives the content visualized by the user of the source system when the viewing directions of the one and the other are sufficiently close.
  • the source system does not necessarily include a source display system, however, the operating data includes all the data of the observation conditions associated with the display data of said operating data.
  • the symbolic representations are advantageously superimposed on the visual representation of the virtual environment represented on the target immersive system to provide the observer with assistance with the orientation and the choice of an observation direction.
  • symbolic representations comprise for example the graphical materialization of a sphere or a grid associated with the representation of horizontal surfaces, for example a floor, and or vertical, for example a wall.
  • Such symbolic representations which can only be materialized temporarily, for example by a command from the observer, or under certain conditions, for example a rapid evolution of the observation conditions of the source system, provide assistance to the observer to facilitate his choice of direction of observation and to find his position in the virtual scene.
  • Such graphical elements integrated into the viewer's field of view will show him in which direction to look for the image viewed by the user of the source system, ie how to look in the same direction.
  • the display data of the old images displayed in the virtual environment of said observer may take a long time to disappear, allowing then to superimpose in his field of vision the contents currently viewed according to the direction of gaze current user of said user and the contents previously viewed according to past viewing directions of said user. If said observer does not look exactly in the same direction as said user, he will be able to perceive a larger portion of the virtual environment viewed by said user.
  • the source system is headset type and the target system is a traditional flat screen, possibly stereoscopic.
  • transforming the display data coming from said headset as a function of the position data and or orientation coming from said headset makes it possible to position in the virtual environment of the target system the content portion of the virtual environment visible through the display system of the source system in a stabilized manner, mitigating the impact of frequent head movements of the user of the source system.
  • a processing allowing such a stabilization can be implemented whatever the source and target systems used, and is mainly meaningful if the source system has means for measuring the orientation of the observation point.
  • the virtual environment window of the target immersive system in which the image corresponding to the visible source virtual environment portion is displayed is positioned on a geometric shape comparable to a fixed sphere. and invisible centered on the head of the observer, its position on the surface of the sphere being a function of the viewing direction of the user of the source system, said function being linear or not.
  • the sphere can turn on itself to accompany the user's view of the source immersive system when the user looks in a direction initially located outside the field of the display system target.
  • the source immersive system may also be augmented reality viewing headphones, in which case the environment taken into account by the capture means of said source system is a combination of the virtual displays and the images. of the real scene, both superimposed.
  • the display means of the source immersive system are virtual, the main issue being to compute the contents to be displayed on a target immersive system by the digital processing means of the source immersive system without worrying about display information about the display system of the source immersive system.
  • the source immersive system can use as position and orientation of the calculation of the display data the position and orientation of the observer in the target immersive system, which reaches said source system via the network connection means.
  • the source system computes a dimensionless image consisting of a 360 ° projection of the virtual environment, resulting in an image or set of images that can be transformed by the target immersive system. taking into account the difference between the observation conditions used by the source system and the conditions of effective observation of the observer in the target immersive system at the time of display of the image.
  • the source system calculates a set of display data corresponding to the geometric configuration of the display system of the target immersive system.
  • the transformations performed by the target immersive system take into account the difference between the position used by the source system and the actual position of the observer in the target immersive system at the time of display of the image.
  • an immersive system comprising other forms of screens can be implemented in the device and in the process as both source system and target system.
  • the necessary transformations are ensured by taking into account the curvature characteristics of the surface on which is, in the case of the source system, or must be, in the case of the target system, displayed an image .
  • the invention may, in particular in this situation, adapt an image to a different curvature between a screen of the source system and a screen of the target system, since the processing system associated with the target system has all the geometric information associated with the source system. to build virtually exactly the same screen with the same curvatures.
  • the display system of a target immersive system comprises a single conventional flat screen, optionally having stereoscopic display capabilities.
  • Such an embodiment allows several viewers to live in immersion on the target system a user experience immersed in the source system.
  • the target user's position and viewing direction of the target system is presupposed to correspond to default position and orientation in the target system.
  • the display system of the target system is a mobile device or portable tablet, smartphone or laptop.
  • the display system and / or the target immersive system and / or source system processing system are associated with equipment, generally combining hardware and software, implemented. to interact with the visual representations on the display system, which will be grouped under the expression "means of interaction".
  • These Interaction means can be of any form as long as they make it possible to influence, via the display system and or the processing system, the content and or the behavior of the images.
  • These interaction means include, for example, non-exhaustively, terminals with direct or indirect tactile capabilities, a keyboard, a pointer such as a mouse or a tracking ball, digital pens, a 3D pointing device. , a gyro pointing device, gaze tracking systems ...
  • the freezing function of the display data on the target system can then be activated by these interaction means and the observer (s) on the target system can using the interaction means of said target system to point and or annotate, with text and or with drawings and or with symbols, to the surface of the frozen image, and then record these annotated images by a suitable interface.
  • Such possibilities of interactions, pointing and annotations are advantageously implemented on each of the source and target systems so that the user on the source system and the observer on the target immersive system can use the capabilities thereof.
  • the scores and annotations performed on a system, target or source are also transmitted by the communication means in the form of digital data to the other or to several other interconnected target immersive systems so that the scores and annotations, made by an observer or by the user, can be embedded in the visual representations displayed on each of the other immersive systems concerned.
  • these parameters can be estimated as functions of measurements or observations more or less precise, but sufficient to obtain a reconstruction of the image of the immersive environment acceptable to the observer.
  • the target system may be a computer phone whose screen forms the display system and a camera on the front of said computer phone provides, by a dedicated software application, monitoring the position of the head or eyes of the observer.
  • the parameters of the source and target observation conditions are necessary for the formulation of the transformations of the images of the source system into coherent images on the target system.
  • the values of the parameter are taken into account or failing this, are taken to presupposed values according to the display means and the observation conditions.
  • the display system of the target immersive system may be a screen associated with tactile capabilities as means of interaction.
  • the observer can then use these interaction means to modify the position and / or direction of observation parameters and thus dynamically determine a position and / or an observation direction according to which to observe the virtual representation of the source immersive environment.
  • the touch capabilities can be replaced by a mouse device.
  • the 2D or 3D display control by these interaction means is well known to those skilled in the art.
  • the interaction means of the target immersive system thus allow the observer to control a subset of the observation conditions for the target immersive system.
  • all the types of immersive systems described can be combined in a more or less complex device that does not restrict itself to a single pair of source system / target system.
  • the invention can also be applied to different types of virtual environments.
  • the virtual environment can be a three-dimensional environment.
  • the virtual environment can also be a two-dimensional environment represented by still or animated stereoscopic images or not.
  • the knowledge of properties of the camera can make it possible to restore the correct proportions for the observer on the target system.
  • it is possible to reproduce an environment generated on a source system in one or more target immersive systems without necessarily transmitting information other than that corresponding to the configuration and operating data generated. by the source system.
  • the environment perceived by a user of the source system is reproduced in a consistent manner with an observer of the target system which thus benefits from the immersion experience in the system. virtual environment of the source system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Dans un dispositif (100) et un procédé mis en œuvre par le dispositif, deux systèmes immersifs sont connectés de sorte qu'un environnement virtuel généré sur un système immersif source (10) est reproduit sur un système immersif cible (20). Les images de l'environnement virtuel affichées sur le système d'affichage du système immersif source sont transformées pour être affichées sur le système d'affichage du système immersif cible de sorte qu'une reproduction virtuelle de l'environnement virtuel soit correctement représentée sur le système immersif cible pour un observateur, indépendamment des différences de structure et de logiciels entre les deux systèmes immersifs. Le gel de certaines données d'affichage et de conditions d'observations du système source assure une stabilisation temporaire de la représentation de l'environnement virtuel sur le système cible sans affecter la cohérence de la représentation sur ce dernier.

Description

DISPOSITIF ET PROCEDE DE PARTAGE D'IMMERSION
DANS UN ENVIRONNEMENT VIRTUEL
Domaine de l'invention
La présente invention appartient au domaine de la réalité virtuelle et de la présentation des environnements virtuels et du partage d'environnements virtuels.
Plus particulièrement, l'invention concerne un dispositif et un procédé de partage de l'immersion dans un environnement virtuel avec des utilisateurs disposant de moyens d'immersion autres que les moyens ayant généré l'environnement virtuel.
Etat de l'art
Dans le domaine de la réalité virtuelle un ou plusieurs utilisateurs d'un système d'immersion dans un environnement virtuel sont immergés dans l'environnement virtuel au moyen d'un environnement matériel produisant des stimuli pour donner aux utilisateurs des sensations proches, sinon identiques, sinon supposées, de celles qui seraient ressenties dans un environnement réel que l'environnement virtuel est sensé reproduire.
On comprend ici que la représentation n'est pas nécessairement réaliste mais peut aussi être déformée, atténuée ou exagérée dans certains effets, pour produire des sensations particulières telles qu'une perception accrue de phénomènes dans le monde virtuel. Par exemple par un effet d'échelle, un utilisateur peut se trouver immergé dans un univers microscopique qui lui est normalement inaccessible. Un utilisateur peut être immergé pour observer un environnement non visible en conditions ordinaires comme par exemple un écoulement aérodynamique, ou encore pour observer une représentation d'un environnement non physique comme par exemple une base de données visualisée en 3D.
Dans certains cas, un même environnement virtuel est partagé entre plusieurs utilisateurs. Par la suite, il sera considéré une représentation visuelle de l'environnement virtuel, à deux ou à trois dimensions, et il sera exposé plus particulièrement les problèmes et solutions liés à cette représentation visuelle dans le contexte de l'invention.
Une solution connue pour permettre à au moins deux utilisateurs d'être immergés dans un environnement virtuel consiste à dupliquer les données utilisées pour construire la représentation visuelle de l'environnement virtuel sur deux systèmes immersifs, chaque système étant affecté à un utilisateur, pour obtenir sur chacun des deux systèmes un rendu temps réel correspondant au point de vue de chaque utilisateur associé à un système. Dans ce cas les informations relatives à la position et ou aux interactions réalisées par chacun des utilisateurs sont synchronisées pour permettre à chacun des environnements virtuels reproduits sur chacun des systèmes d'être dans un état identique.
Cette solution a l'avantage de permettre à chacun des utilisateurs partageant l'immersion d'avoir son propre point de vue sur l'environnement virtuel partagé.
Ainsi, un utilisateur en immersion au moyen d'un premier système immersif peut regarder le côté gauche d'un objet et un second utilisateur en immersion dans le même environnement virtuel au moyen d'un second système immersif peut regarder simultanément le côté droit du même objet.
Dans une telle solution, chacun des systèmes immersifs doit disposer des données utilisées pour construire l'environnement virtuel, et sa représentation visuelle, et de l'ensemble des applications, en particulier des logiciels, permettant d'exploiter ces données, conditions qui imposent de passer par une étape de duplication des données et de disposer des licences, pouvant s'avérer coûteuses, sur les logiciels mis en œuvre sur chacun des systèmes.
En outre, lorsque les deux systèmes immersifs sont distants, la transmission de données pose un problème de confidentialité, notamment dans les environnements industriels où les données emportent un important volume d'informations pouvant être sensibles sur la définition de l'environnement virtuel, par exemple une maquette numérique d'une machine prototype.
Un autre inconvénient de cette solution est de nécessiter sur chaque système immersif des systèmes de traitement numériques avec des performances suffisantes pour générer en temps réel les images de l'environnement virtuel affichées sur les moyens d'affichage du système immersif, performances encore plus importantes lorsque le système immersif doit exploiter un environnement en trois dimensions et ou produire une représentation en trois dimensions.
Un autre inconvénient de cette solution est que le confort de partage de l'expérience du monde virtuel dépend très fortement de la qualité des moyens de communication réseau mis en place. Le partage reposant sur la synchronisation des données entre plusieurs systèmes immersifs, les temps de latence introduits par les moyens de communication réseau affectent la vitesse à laquelle les données provenant d'un système immersif distant sont remises à jour dans un système immersif donné, provoquant un écart potentiellement important entre l'état effectif de l'environnement virtuel à un instant donné du système immersif distant et celui retranscrit à l'intérieur du système immersif considéré au même instant.
Suivant un autre procédé connu, qui évite la transmission de certaines données sensibles, des images produites par un système immersif pour un utilisateur sont filmées par une caméra portée par l'utilisateur, orientée pour montrer les images dans le champ visuel de l'utilisateur, et sont transmises pour être observées sur un écran par des personnes plus ou moins éloignées. Ce procédé n'offre cependant pas la qualité attendue par une personne distante devant observer un environnement virtuel du fait de l'exploitation de l'image filmée sur un écran unique et du fait que l'image filmée comporte en général des défauts et artefacts en raison de la mise en œuvre par le système immersif de systèmes d'affichage des images comportant plusieurs écrans assemblés pour former l'environnement immersif. En outre les personnes qui observent l'image à distance sont passives et n'ont pas d'interaction avec lesdites images. De plus, une telle solution n'est pas envisageable lorsque le système immersif met en œuvre un casque de réalité virtuelle, les images étant dans ce cas affichées très près des yeux de l'utilisateur.
Dans le cas d'un système immersif composé de plusieurs écrans et/ou images combinées pour obtenir un grand champ de vision, l'homme du métier sait que les images sont composées pour être vues d'un emplacement donné du système d'affichage et qu'observées depuis un autre emplacement les images sont vues déformées et avec des défauts de raccordement lorsque qu'il est mis en œuvre plusieurs écrans.
Ainsi, même lorsque le système d'affichage du système immersif distant est identique à celui du système immersif générant les images de l'environnement virtuel, pour que les images affichées soient correctement vues par l'observateur distant il est nécessaire que la position de son point d'observation dans le système d'affichage distant soit la même que celle du point d'observation de l'utilisateur dans le système d'affichage du système immersif. Cette dernière contrainte s'avère en pratique impossible à respecte, chaque utilisateur devant être libre de réaliser des mouvements de tête, même de faibles amplitudes.
Il résulte du non-respect de cette contrainte de positions des points d'observation que les différentes images affichées dans le système d'affichage distant présentent des incohérences avec des déformations et des discontinuités généralement inacceptables pour la compréhension de l'information affichée, et incompatible pour réaliser une immersion.
Présentation de l'invention
L'invention apporte une solution aux différents problèmes de l'art antérieur dans le domaine de l'immersion d'un observateur dans un environnement virtuel généré pour un autre système.
Un avantage est d'éviter de multiplier les coûts des licences de logiciels. Un autre avantage est d'éviter la duplication des données et les contraintes de transmission des données.
Un autre avantage est de ne pas être limités dans le choix des architectures matérielles de chacun des systèmes immersifs mis en œuvre.
Un autre avantage est de préserver la confidentialité des données de l'environnement virtuel.
Un autre avantage est de conserver la qualité de la représentation visuelle de l'environnement virtuel et de l'immersion dans un système distant. Pour cela, l'invention concerne un dispositif de partage d'immersion dans un environnement virtuel, comportant :
- un système source, délivrant des données d'exploitation d'une représentation visuelle de l'environnement virtuel, lesdites données d'exploitation comportant des données d'affichage relatives à des images de ladite représentation visuelle et comportant des données des conditions d'observation dans lesquelles la représentation visuelle de l'environnement virtuel a été générée ;
- au moins un système immersif cible, comportant un système de traitement numérique délivrant des images à au moins un système d'affichage dudit système immersif cible.
En outre, le dispositif comporte :
- des moyens de transmission (30) des données d'exploitation délivrées par le système source (10) à l'au moins un système immersif cible (20) ;
- des moyens de transformation des données d'affichage, représentatives d'images de la représentation visuelle de l'environnement virtuel délivrées par le système source (10) associée à des données des conditions d'observation, pour construire des images affichées dans le système d'affichage (22) du système immersif cible (20), tels que l'ensemble des images affichées par ledit système d'affichage dudit système immersif cible, est le résultat de traitements en vue de favoriser l'immersion sur ledit système immersif cible (20) dans les données d'affichage lors d'un passage des conditions d'observation transmises par le système source (10) à des conditions d'observation effectives dans le système d'affichage (22) dudit système immersif cible.
En pratique, comme il sera compris dans la suite de la description, favoriser l'immersion comprend compenser les déformations visuelles éventuelles résultant de l'exploitation de données d'affichage sur des systèmes d'affichage différents et ou selon des conditions d'observation différentes. Favoriser l'immersion peut comprendre également modifier la position dans l'environnement virtuel du système cible de la portion de contenu de l'environnement virtuel visible au travers du système d'affichage du système source pour le présenter de façon stabilisée, atténuant l'impact des mouvements de tête fréquents de l'utilisateur du système source.
Le partage peut être effectué en temps réel, la transmission des données étant alors réalisée en continu, ou en temps différé.
En outre, en réalisant par le système immersif cible la transformation des données d'affichage pour la partie fonction des conditions d'observation effectives, incluant les données de position d'observation et ou de direction d'observation, dans le système d'affichage du système immersif cible, il est minimisé l'impact du temps de latence entre l'affichage dans le système cible des images transformées et la prise en compte pour la transformation des données d'affichage du point d'observation effectif dans le système d'affichage du système cible.
Dans une forme de réalisation, le système source est un système immersif comportant un système d'affichage source affichant des images des données d'affichage d'une représentation visuelle d'un environnement virtuel généré par ledit système source.
Il est alors obtenu un système dans lequel les données d'exploitation du système source sont générées avec l'interaction d'un utilisateur du système immersif source, l'immersion pouvant être partagé en temps réel ou en temps différé avec un observateur du système cible.
Dans une forme de réalisation, la transformation des données d'affichage comporte une reconstitution d'une représentation virtuelle 3D d'un système d'affichage source de l'environnement physique du système d'affichage source, une position d'un point d'observation de l'observateur dans le système d'affichage du système cible étant forcée, pour la transformation des données d'affichage, à une même position dans ladite représentation virtuelle 3D du système d'affichage source que la position d'observation de l'utilisateur dans le système d'affichage source.
Dans une forme de réalisation, le système immersif source comporte un système de mesure en temps réel de la direction d'observation, et ou de la position d'observation, dans le système d'affichage du système immersif source, d'un utilisateur qui serait immergé dans l'environnement virtuel dudit système immersif source, et l'au moins un système immersif cible comporte un système de mesure de la direction d'observation, respectivement et ou de la position d'observation, dans le système d'affichage dudit système immersif cible, d'un observateur qui serait immergé dans l'environnement virtuel représenté sur ledit système immersif cible.
Il est ainsi connu une position et ou une direction effective depuis laquelle les données d'affichage des images affichées dans le système d'affichage du système immersif source ont été générées pour être vues par l'utilisateur et une position et ou une direction effective depuis laquelle les données d'affichage des images affichées dans le système d'affichage du système immersif cible doivent être générées pour être vues par l'observateur et être représentatives de l'environnement virtuel vu par l'utilisateur du système immersif source.
Un logiciel de traitement partiel des données d'affichage peut être exécuté sur les moyens de traitement numérique du système immersif source, ou sur un calculateur annexe connecté à un réseau par lequel des données sont transmises entre le système source et au moins un système immersif cible, ledit logiciel transformant les données d'affichage générées par le système immersif source, représentatives des images de la représentation visuelle de l'environnement virtuel du système source, en données d'affichage correspondant à des images adimensionnelles indépendantes d'une structure d'un système de visualisation devant afficher les images, lesdites données d'affichage correspondant à des images adimensionnelles étant transmises à l'au moins un système immersif cible.
Dans cette configuration, les calculs de transformation des données d'affichage qui ne dépendent pas du système immersif cible sont avantageusement réalisés sur le système source ou un calculateur annexe indépendant. Une telle solution permet dans un dispositif comportant plusieurs systèmes immersifs cibles de transmettre aux différents systèmes immersifs cibles des données d'affichage dans une forme neutre, adimensionnelle, dont seul le traitement ultérieur, spécifique au système immersif cible, est réalisé par chacun des systèmes immersifs cibles.
Dans une forme de réalisation, les images adimensionnelles correspondent à des images projetées sur une paroi intérieure d'une sphère, au centre de laquelle sphère est placé le point d'observation du système source, pour former les images adimensionnelles dans un angle solide correspondant aux images affichées sur le système de visualisation du système immersif cible et pouvant atteindre quatre Pi stéradians.
II est ainsi possible de donner à un observateur d'un système cible de choisir une direction d'observation dans n'importe quelle direction de l'espace sans être limité par un champ « visuel » du système source.
Pour assister l'observateur d'un système immersif cible dans le choix d'une direction d'observation dans un environnement virtuel dont il ne maîtrise pas toutes les conditions de la représentation, des représentations symboliques sont avantageusement superposées à la représentation visuelle de l'environnement virtuel représenté sur le système immersif cible pour apporter à l'observateur une aide à l'orientation et au choix d'une direction d'observation.
Ces représentations symboliques comportent par exemple la matérialisation graphique d'une sphère ou encore d'une grille associée à la représentation de surfaces horizontales, par exemple un sol, et ou verticales, par exemple un mur.
De tels représentations symboliques, qui peuvent n'être matérialisées que temporairement, par exemple par une commande de l'observateur, ou dans certaines conditions, par exemple une évolution rapide des conditions d'observation du système source, apporte une assistance à l'observateur pour faciliter son choix de direction d'observation et pour identifier ou retrouver sa position dans la scène virtuelle.
Le logiciel de traitement des données d'affichage pour construire des images affichées sur le ou les écrans du système d'affichage de l'au moins un système immersif cible peut également être exécuté sur les moyens de calculs dudit système immersif cible.
Il est dans ce cas transmis par le système source les mêmes données à tous les systèmes immersifs cibles et les traitements numériques de la transformation des données d'affichage sont réalisés par chaque système immersif cible en fonction de la configuration qui lui est propre et de variables locales telles que les position et directions d'observation de l'observateur dans le système d'affichage du système immersif cible. Dans une forme de réalisation, le dispositif comporte une pluralité de systèmes immersifs cibles connectés simultanément au système immersif source. Il est ainsi possible avec les bénéfices de l'invention de permettre à de nombreux observateurs, pouvant être distants et dispersés, de suivre l'immersion vécue par un utilisateur du système source.
Il est compris qu'un système immersif cible peut être situé à une distance quelconque du système source, les problèmes de synchronisation de la représentation visuelle affichée dans le système immersif cible avec les conditions d'observation de l'observateur trouvant précisément une solution dans l'invention.
Dans une forme de réalisation, le système source comporte un équipement de capture un signal, numérique ou analogique, porteur des données d'affichage, généré par le système source et qui transmet sous forme de données numériques lesdites données d'affichage correspondant au signal capturé, directement ou indirectement, à au moins un système immersif cible.
Il est ainsi évité toute intervention ou modification, matérielle ou logicielle, autre que le raccordement dudit équipement de capture, du système immersif source, de telles interventions ou modifications, lorsqu'elles sont possibles, étant le plus souvent contraignantes.
Dans une forme de réalisation, le système immersif source comporte un logiciel, exécuté sur un système de traitement numérique, de capture de contenus des données d'affichage du système source, après que les données d'affichage ont été calculées, et qui transmet sous forme de données numériques lesdits contenus des données d'affichage capturés, directement ou indirectement, à l'au moins un système immersif cible.
Dans ces formes de réalisation de tels contenus correspondent avantageusement à un ensemble de données suffisant pour reconstituer les images générées par le système source. Lesdites données sont par exemple les données numériques envoyées à un système d'affichage du système source, le cas échéant avant une conversion analogique, ou des données soumises à des algorithmes de compression spatiale et ou temporelle pour en diminuer la taille, ou des ensembles d'attributs de chaque image : contours, textures, couleurs... Les contenus sont par exemple des images, ou des flux vidéo, dans encore une autre forme des images stéréo, dans un autre exemple de forme un flux vidéo stéréo.
Avantageusement, lorsqu'il est recherché une synchronisation du système source et du ou des systèmes immersifs cibles, une forme des contenus est déterminée en fonction des moyens de calcul du système source et ou du ou des systèmes immersifs cibles, et des moyens de transmission de données, pour limiter autant que possible les retards entre les traitements des données d'exploitation par le système source et par le ou les systèmes immersifs cibles en prenant en considération les performances des équipements mis en œuvre par toute la chaîne de transmission des données et de leurs traitements par les systèmes.
Dans une forme de réalisation, le dispositif comporte un système d'enregistrement des données, configuré pour enregistrer les données d'exploitation générées par le système source et pour transmettre les dites données d'exploitation à au moins un système immersif cible en temps différé.
Il est ainsi possible de rejouer à tout moment sur un système immersif cible quelconque, et sans limite de nombre de fois, une immersion enregistrée sur un système source.
Dans une forme de réalisation, le système source comporte un logiciel de traitement d'image et un système d'affichage source, et un système immersif cible comporte un logiciel de calcul d'images de synthèse et de construction d'une représentation visuelle d'un environnement virtuel sous la forme d'images affichées sur un ou des écrans du système d'affichage dudit système immersif cible et comporte également un équipement et ou un logiciel de capture des données d'affichage correspondant aux images affichées sur le système d'affichage dudit système immersif cible, de sorte que chacun desdits systèmes immersifs cible et source peut être alternativement un système source et un système cible. Le dispositif s'avère dans cette forme de réalisation particulièrement adapté à un travail collaboratif entre un utilisateur et un observateur susceptibles d'inverser leurs rôles.
Dans cette configuration les deux systèmes immersifs cible et source pouvant inverser leurs conditions peuvent être différents tant dans leurs configurations matérielles que logicielles, le dispositif suivant l'invention permettant de s'affranchir sur ces points des contraintes de compatibilité habituellement rencontrées dans les systèmes connus. Cette configuration est également compatible avec la connexion simultanée d'autres systèmes immersifs cibles.
Dans une forme de réalisation, le système d'affichage et le système de traitement du système immersif cible et ou du système source sont associés à des moyens d'interaction configurés pour modifier, via le système d'affichage et ou le système de traitement du système immersif considéré, le contenu et ou le comportement des images affichées par le système d'affichage du système source ou du système immersif cible considéré.
Ainsi, chacun des utilisateurs du système source et observateurs du système immersif cible dispose de moyens d'intervention pour agir sur le comportement des affichages sans en détruire la cohérence.
Dans une forme de réalisation, les moyens d'interactions comportent une commande de gel pour sélectivement activer, et désactiver, le gel de toute ou partie des données d'affichage et ou des données des conditions d'observation utilisées pour calculer les images devant être affichées par le système d'affichage du système source et ou du système immersif cible.
II est ainsi possible pour l'observateur du système cible, qui ne dispose pas des moyens d'agir sur le fonctionnement du système source, de figer, au moins momentanément, certaines données de la représentation de l'environnement virtuel du système source afin par exemple d'en parfaire une analyse.
Dans une forme de réalisation, les moyens d'interactions du système immersif cible comportent une commande de gel d'un sous-ensemble des conditions d'observation dans le système d'affichage du système source et ou du système immersif cible.
Dans une forme de réalisation, les moyens d'interaction de l'au moins un système immersif cible sont en outre configurés pour pointer et ou annoter les images affichées par le système d'affichage dudit système immersif cible.
Les annotations sont par exemple matérialisées sous la forme d'incrustations dans les images. Dans une forme de réalisation, des données caractérisant les pointages ou annotations formées sur des images d'un système immersif cible sont transmises via les moyens de transmission à au moins un autre système immersif connecté. Il est ainsi possible à cet autre système, le système source ou un autre système cible, recevant ces données de traiter ces données pour les afficher.
Les moyens d'interaction comportent par exemple une ou des surfaces sensibles au toucher ou à la présence d'une main ou d'un doigt, et ou un ou des pointeurs.
Le système d'affichage éventuel du système source, et le système d'affichage de l'au moins un système immersif cible, appartiennent chacun à l'une des catégories parmi mettant en œuvre des écrans plats et ou des écrans courbes :
- les systèmes d'affichage multi-faces ;
- les casques de visualisation, à réalité virtuelle, ou à réalité augmentée, ou mixtes ;
- les systèmes d'affichage multi-écrans ;
- les écrans ;
- les écrans portés par un utilisateur ou un observateur.
Il est de la sorte possible d'adapter la configuration du dispositif à de nombreux types de besoins, en particulier en fonction de critère de coûts, de rapidité de déploiement et de réalisme des représentations graphiques.
Ces catégories, indépendamment des dimensions et de la forme des écrans, qui peuvent être plats ou courbes, peuvent cohabiter dans le dispositif de l'invention, seuls les calculs de transformation des données d'affichage étant modifiés pour s'adapter aux caractéristiques spécifiques des écrans et des systèmes d'affichage.
Dans une forme de réalisation, au moins un système immersif cible est situé dans un emplacement distant du système source, la séparation physique des deux systèmes étant telle que l'utilisateur du système source et l'observateur du système immersif cible ne sont pas en mesure de communiquer sans faire usage de moyens techniques de communication. Il est dans cette configuration repoussé les limites spatiales qui permettent un partage d'une immersion. Dans une forme de réalisation, au moins un système immersif cible est situé à une proximité du système source, la séparation physique étant telle qu'un utilisateur du système source et un observateur du système immersif cible peuvent communiquer directement sans barrière physique, c'est-à-dire sans nécessité de mettre en œuvre des moyens techniques. Il est dans cette configuration obtenu de partager une immersion, par exemple dans le cadre d'un travail collaboratif, sans souffrir des artefacts inévitables lorsqu'un observateur se tient à proximité de l'utilisateur dans l'espoir d'en ressentir les effets.
Une telle configuration n'est pas simplement hypothétique dans la mesure où elle permet, y compris dans un même lieu, de simuler l'immersion, avec des moyens matériels simples, pour un ou plusieurs observateurs, dans l'environnement virtuel de l'utilisateur du système source, d'une part sans perturber ledit utilisateur et d'autre part dans des conditions optimales puisqu'il est impossible pour un observateur de se placer dans le système d'affichage du système source avec les mêmes conditions d'observation que celles de l'utilisateur.
L'invention concerne également un procédé de partage d'immersion dans un environnement virtuel d'un observateur dans un système immersif cible, comportant les étapes de :
- génération, indépendamment du système immersif cible, de données d'exploitation d'une représentation visuelle de l'environnement virtuel, lesdites données d'exploitation comportant des données d'affichage relatives à des images de ladite représentation visuelle et comportant des données de conditions d'observation associées auxdites données d'affichage ;
- affichage sur un système d'affichage du système immersif cible d'images représentant l'environnement virtuel.
Suivant l'invention, le procédé comporte , pour chaque image ou ensemble d'images devant être affiché, entre l'étape de génération et l'étape d'affichage, une étape de transformation, réalisée au moins pour partie sur le système immersif cible, des données d'affichage de l'environnement virtuel générées à l'étape de génération, l'étape de transformation comportant de déterminer des conditions d'observation effective par l'opérateur dans le système d'affichage du système immersif cible et de transformer les données d'affichage associées aux conditions d'observation de l'étape de génération des données d'affichage, en données d'affichage correspondant aux conditions d'observation effective par l'observateur.
II est ainsi réalisé la transformation des données d'affichage générées par le système source, données d'affichage générée pour des conditions d'observation indépendamment indépendantes du système immersif cible, en données d'affichage correspondant à des images adaptées au système d'affichage du système immersif cible et aux conditions d'observation d'un observateur dudit système immersif cible pour présenter audit observateur l'environnement virtuel.
Dans un mode de mise en œuvre, chaque point image d'une image transformée, à l'étape de transformation pour être affichée par le système d'affichage du système immersif cible, est déterminé en fonction d'au moins un point d'observation effectif dans le système d'affichage du système immersif cible pour conserver, à un facteur de proportionnalité près constant pour toute l'image à un instant donné, une même direction relative d'observation par rapport à un autre point image quelconque de ladite image transformée, observée depuis le point d'observation effectif, que la direction relative entre lesdits points image dans les données d'affichage de la représentation visuelle de l'environnement virtuel générées à l'étape de génération délivrées par le système source et comportant les données image et les données de conditions d'observation associées auxdites données images.
Dans un mode de mise en œuvre, l'étape de génération des données d'affichage de la représentation de l'environnement virtuel est réalisée sur un système source, lequel système source est : un système de génération d'images pour un affichage virtuel ; ou un système de diffusion d'un flux d'images, réelles et ou virtuelles, générées en temps réel ou enregistrées ; ou un système immersif dans lequel est immergé un utilisateur.
Dans un mode de mise en œuvre, la reconstitution d'une représentation virtuelle 3D du système d'affichage source de l'environnement physique du système d'affichage source est réalisée par le système immersif source ou le calculateur annexe connecté au réseau. Dans une forme de mise en œuvre, la transformation des données d'affichage comporte une reconstitution d'une représentation virtuelle 3D du système d'affichage source, une position d'observation de l'observateur étant forcée, pour la transformation des données d'affichage, à une même position dans ladite représentation virtuelle 3D du système d'affichage source que la position d'observation de l'utilisateur dans le système d'affichage source.
Suivant cette forme, il est créé un système d'affichage source virtuel dont la position par rapport à l'observateur est calquée sur la position de l'utilisateur dans le système d'affichage source réel.
II est reconstruit virtuellement sur le système immersif cible le système d'affichage du système immersif source, reconstruction virtuelle qui est affichée sur le système d'affichage du système immersif cible de manière à ce que les conditions d'observation de l'observateur de ladite reconstruction virtuelle du système source dans le système immersif cible correspondent au moins en partie aux conditions d'observation de l'utilisateur du système immersif source dans le système immersif source.
Cette transformation permet de s'affranchir d'une duplication des données de l'environnement virtuel et peut être appliquée pour toute forme de système immersif cible et pour tout logiciel exécuté sur le système immersif source.
Dans un mode de mise en œuvre, l'étape de transformation des données d'affichage est réalisée totalement sur le système immersif cible après une étape de transmission des conditions d'observation et des données d'affichage de l'environnement virtuel, générées par le système de traitement numérique du système immersif source.
Dans un autre mode de mise en œuvre, l'étape de transformation des données d'affichage est réalisée pour partie sur le système immersif source, ou sur un calculateur annexe connecté à un réseau des moyens de transmission de données, avant une étape de transmission des conditions d'observation et des données d'affichage transformées partiellement de l'environnement virtuel au système immersif cible, et le système immersif cible transforme les données d'affichage partiellement transformées en fonction de données d'exploitation du système immersif cible pour former les images affichées sur le système d'affichage cible. Avantageusement dans ce cas, les données d'affichage transformées partiellement par le système immersif source, ou le calculateur annexe, sont indépendantes des caractéristiques et des données d'exploitation d'un système cible, permettant ainsi de factoriser l'étape de traitement voire la réduire à un simple traitement pour affichage sur certains systèmes cibles.
Dans un mode de mise en œuvre l'étape de transformation comporte une étape de gel de données d'affichage de la représentation de l'environnement virtuel ou de gel des conditions d'observations, générées à l'étape de génération.
Dans un mode mise en œuvre particulier, les données des conditions d'observation dans le système d'affichage du système immersif cible continuent d'être prises en compte lors de l'étape de gel de données d'affichage ou de gel des conditions d'observation.
Il est ainsi obtenu la possibilité de maintenir pour l'utilisateur du système source une perception de l'environnement virtuel généré par le système immersif source, tout en conservant dans le système immersif cible une vision correcte et stable dudit environnement virtuel placé dans cette condition de gel malgré des variations des conditions d'observation dans ledit système immersif source. Les données d'affichage dans le système immersif cible sont ainsi interprétées comme si l'environnement virtuel était totalement statique et que l'utilisateur du système source ne se déplaçait plus, résultant ainsi en une sorte de capture 3D de l'état du système immersif source.
L'observateur dispose de la possibilité de geler, au moins en partie, la représentation de l'environnement sur le système cible, et d'obtenir momentanément une image stable sur laquelle il peut par exemple apporter des annotations
Dans un mode de mise en œuvre, le procédé comporte une étape d'initialisation dans laquelle le système immersif cible initialise un registre comprenant des données sur des conditions dans lesquelles les données d'affichage sont générée à l'étape de génération.
Dans un autre mode de mise en œuvre, l'étape de transformation des données d'affichage est réalisée pour partie sur le système immersif source, ou sur un calculateur annexe connecté à un réseau des moyens de transmission de données, avant une étape de transmission des données d'affichage partiellement transformées de l'environnement virtuel au système immersif cible, lequel système immersif cible transforme les données d'affichage partiellement transformées en fonction de données d'exploitation dudit système immersif cible.
Présentation des figures
La description de l'invention est faite en référence aux figures qui représentent de manière schématique et de manière non limitative :
Figure 1 : un exemple simplifié d'un dispositif de partage d'immersion dans un environnement visuel avec un système immersif source comportant un système d'affichage de type multi-écrans et un système immersif cible de type mono écran plat ;
Figure 2 : un exemple illustré de principes de transformation d'une image, générée dans un système immersif source avec un système d'affichage et observé dans un système immersif cible avec un système d'affichage différent, pour conserver les conditions visuelles d'immersion ;
Figure 3 : une illustration d'un dispositif comportant plusieurs système immersifs cibles avec des systèmes d'affichage de technologies différentes reproduisant l'environnement virtuel d'un même système immersif source ;
Figure 4 : un synoptique simplifié du procédé suivant l'invention.
Définitions
Dans la description, il devra être donné aux termes et expressions suivantes les sens précisés ci-après :
Système immersif : Système destiné à restituer en temps réel des impressions sensorielles à un utilisateur par des moyens de stimulation adaptés aux sensations devant être restituées. Un système immersif visuel comprend généralement un ensemble de moyens matériels et logiciels pour au moins : générer des images d'une représentation visuelle d'un environnement virtuel ; afficher des images à l'attention d'au moins un utilisateur ; les images affichées étant calculées pour représenter l'environnement virtuel tel qu'il doit être perçu par l'utilisateur suivant ses conditions d'observation de l'environnement virtuel.
Système d'affichage : ensemble de moyens matériels et au besoin logiciels comportant des moyens d'affichage d'images, par exemple un ou plusieurs écrans d'affichage agencés entre eux dans l'espace pour présenter des images à un utilisateur ou à un observateur, le cas échéant mettant en œuvre des systèmes optiques conventionnels tels que des miroirs, des lames semi-transparentes, des optiques de collimation, des filtres... Le système d'affichage est associé le cas échéant à des moyens pour déterminer en temps réel, dans un référentiel lié aux écrans, la position et ou la direction d'observation, d'un utilisateur ou d'un observateur regardant les images affichées par lesdits écrans.
Casque : cas particulier de système d'affichage dans lequel les écrans sont fixés sur un support porté sur la tête par l'opérateur. Dans ce cas particulier la position d'observation est fixe dans le référentiel lié aux écrans et la direction d'observation est fonction des mouvements des yeux. Ce type d'équipement peut être associé à des moyens de suivi temps réel de l'orientation, voire de la position, de la tête dans l'environnement physique, qui ne modifieront bien entendu pas la position de la tête de l'opérateur par rapport au système d'affichage mais pourront être exploitées par le logiciel de calcul de la représentation de l'environnement virtuel pour modifier la position et la direction d'observation dans un référentiel de l'environnement virtuel.
Image : toute forme de représentation visuelle affichée sur un écran. Une image peut être fixe, animée résultant d'une succession d'images dans le temps, résulter d'un flux vidéo... Une image peut être transmise en vue de son affichage sur un écran par un signal analogique ou par un ensemble de données numériques représentant tout ou partie (par exemple dans le cas de signaux compressés) d'une image, ou les deux suivant un emplacement considéré dans la chaîne de transmission de l'image entre la génération de l'image et son affichage.
Environnement virtuel : un environnement définissant un ensemble de données numériques définissant les caractéristiques de cet environnement et nécessaires à la construction d'une représentation visuelle de cet environnement tel qu'il doit être perçu. L'environnement virtuel peut être le résultat d'une construction 2D ou 3D issue d'un modèle numérique. L'environnement virtuel peut également être le résultat de la virtualisation d'un environnement réel, par exemple par des images numérisées ou des flux vidéo. L'environnement virtuel peut également être une combinaison d'un modèle numérique et d'un environnement réel suivant un principe de réalité augmentée.
Immersion : situation dans laquelle des représentations d'un environnement virtuel sont présentées à une ou plusieurs personnes de façon à donner à ces personnes l'impression d'être physiquement entourées des informations contenues dans l'environnement virtuel. Pour augmenter les impressions sensorielles, le système d'affichage peut comporter un système de reconstructions des effets du relief, par exemple des lunettes à occultation synchronisées avec les images affichées pour présenter à l'utilisateur du système immersif des images correspondant à chacun de ses yeux pour produire un effet stéréoscopique.
Description détaillée d'un exemple de réalisation
En particulier, il sera dans la présente invention considéré le cas d'un environnement virtuel dont la représentation visuelle est restituée par le système immersif au moyen d'un système d'affichage.
L'environnement virtuel restitué peut être à deux dimensions, 2D, ou à trois dimensions, 3D.
Les informations numériques utilisées par le système immersif peuvent correspondre, et correspondent souvent, à des données d'un environnement immersif en trois dimensions 3D, auquel cas une application logicielle du système immersif est une application de création d'images de synthèse qui élabore à chaque instant une ou plusieurs nouvelles images de synthèse par un traitement numérique des informations 3D en fonction d'une position d'un point d'observation, par exemple correspondant à un centre optique d'un objectif d'une caméra virtuelle.
Les informations numériques peuvent également être des données d'un environnement à deux dimensions, 2D, comme des films, éventuellement panoramiques préenregistrés, qui peuvent être traités numériquement par une application logicielle pour afficher des images vues depuis un point d'observation contrôlé par l'utilisateur ou contrôlé par une logique plus ou moins interactive.
L'homme du métier dans le domaine de la réalité virtuelle connaît les principes et le fonctionnement des systèmes immersifs qui sont répandus aujourd'hui dans de nombreuses applications industrielles, par exemple en conception assistée par ordinateurs, dans des simulateurs et systèmes d'entraînement, dans des applications ludiques généralement regroupées sous l'expression « jeu vidéo ».
La description de ces systèmes immersifs connus ne sera donc pas développée en détail dans la présente demande, tout au plus il sera fait appel à des éléments, parties ou sous-ensembles et à des principes lorsqu'ils seront jugés utiles à la clarté de l'exposé ou lorsque qu'il pourra être considéré que le système immersif de l'invention risque d'échapper au sens le plus conventionnel de ce terme. En particulier, dans l'invention un seul écran, d'ordinateur ou d'un moniteur vidéo ou un téléphone ordinateur, peut former la partie affichage d'un système d'affichage d'un système immersif.
En outre dans l'exemple de réalisation décrit, ne seront considérés que les aspects visuels de l'immersion, les autres aspects, sonores par exemple, n'étant pas abordés, tout au plus évoqués.
Pour les échanges de données entre les systèmes, il sera considéré dans la description les expressions :
- « données d'exploitation »
- « données des conditions d'observation »
- « données d'affichage » Les données d'exploitation comporte l'ensemble des informations d'une représentation de l'environnement virtuel vue dans un système de visualisation par un observateur, situation qui peut être réelle ou virtuelle.
Les données d'exploitation comprennent les données des conditions d'observation et les données d'affichage.
Les données d'affichage comportent notamment des informations relatives aux images générées par un système source 10.
Par exemple les données d'affichage comportent des attributs de chacun des points images des images générées par le système source 12, ces attributs comportant notamment, outre des caractéristiques de luminance et de couleur, la position du point image dans une image, par exemple une image devant être affichée dans ledit système d'affichage.
Les données d'affichage sont par exemple des informations contenues dans des trames vidéo.
Les données des conditions d'observation comportent notamment des données relatives à la position depuis laquelle et à la direction dans laquelle un utilisateur ou un observateur regarde dans un système d'affichage des images, ou avec lesquelles des images ont été générées par exemple par un dispositif de prise de vue d'un environnement réel puis virtualisé.
La figure 1 illustre, au titre d'un exemple de réalisation, un dispositif 100 comportant deux systèmes immersifs, un système immersif source 10 et un système immersif cible 20, connectés par des moyens de transmission de données.
Le système immersif source 10 de la figure 1 est un système connu qui comporte, dans l'exemple illustré, un système de traitement numérique 11 , comportant une base de données 11 a, permanente ou temporaire, permettant de stocker des informations numériques définissant un environnement virtuel, et un système d'affichage 12 d'images générées par le système de traitement numérique. Le système de traitement numérique 11 est en pratique un calculateur, de puissance adaptée aux calculs d'images en temps réel, sur lequel sont exécutés des logiciels de calculs d'images de synthèse.
De manière connue, la base de données 11 a, en pratique une mémoire ou un système de stockage de fichiers, contient un ensemble des données définissant l'environnement virtuel et nécessaires au calcul d'une représentation visuelle dudit environnement virtuel.
La base de données comporte également des données relatives au système immersif source lui-même, en particulier des paramètres relatifs au système d'affichage 12, dont des dimensions, positions et formes d'écrans (12a, 12b, 12c, 12d), sur lesquels sont affichées les images devant former une représentation de l'environnement virtuel dans lequel est immergé un utilisateur 90.
Il doit être noté qu'outre les données relatives à l'environnement virtuel et les paramètres relatifs au système d'affichage 12, les moyens de calculs 11 reçoivent également des valeurs de variables, généralement fonction d'un utilisateur 90 en condition d'immersion et ou d'un opérateur du système immersif, qui sont nécessaires aux logiciels pour les calculs d'images de synthèses.
Les variables comportent ici une position d'observation et une direction d'observation de l'utilisateur 90 dans un référentiel du système d'affichage 12, position et direction d'observation dont dépendent les images représentant l'environnement virtuel devant être affichées sur ces écrans pour présenter, vue par l'utilisateur, une représentation correcte dudit environnement virtuel depuis une position dans ledit environnement virtuel où est censé se trouver l'utilisateur.
Les position et direction d'observation devant être connues pour le calcul de chaque nouvelle image affichée, lesdites position et direction d'observation sont, de manière connue par l'homme du métier, mesurées ou estimées en temps réel ou présupposées.
De telles variables sont par exemple des ordres envoyés au système de traitement numérique 11 , par exemple par l'utilisateur 90 par l'intermédiaire d'organes de commande, pour agir directement ou indirectement sur l'environnement virtuel. On comprend ici que les variables sont traitées de manière cyclique par l'application logicielle réalisant la synthèse de l'environnement virtuel pour présenter en temps réel, c'est-à-dire avec une latence et une période de rafraîchissement adaptée à l'immersion souhaitée, un point de vue dans l'environnement virtuel correspondant à un point d'observation de l'utilisateur 90 dans le système d'affichage du système immersif physique.
Les moyens d'affichage 12 du système immersif source 10 de la figure 1 comportent une pluralité d'écrans 12a, 12b, 12c, 12d formant un système multi- faces à quatre écrans, dans l'exemple illustré, fréquemment appelé CAVE dans le domaine de la réalité virtuelle, déterminant un volume dans lequel l'utilisateur 90 peut se tenir et bouger.
Il doit être noté que les dimensions de cet exemple ne sont pas imposées et que toute forme de système d'affichage, multi-faces ou non, peut être mise en œuvre, en particulier en fonction d'avantages qu'elle procure suivant les objectifs d'immersion.
Par exemple un agencement de deux écrans verticaux en L favorise l'immersion verticale. Par exemple un agencement à trois, quatre ou cinq écrans avec des angles plus ouverts que 90° favorise l'immersion de plusieurs utilisateurs simultanément. Certains écrans peuvent également être courbes, cylindriques ou sphériques, et éviter ou limiter le nombre de juxtapositions d'écrans formant des angles. Les écrans peuvent également être portés par l'utilisateur aux moyens d'équipements tels que des casques de visualisation, qui peuvent être plus ou moins transparents en fonction du résultat recherché pour la perception de l'environnement physique environnant.
Le système immersif source 10 appartient, dans le contexte de l'invention, à un dispositif 100 comportant également au moins un système immersif cible 20.
Le système immersif cible 20 comporte au moins un système de traitement numérique 21 et un système d'affichage 22. Le système immersif cible peut être similaire, voir identique, dans sa structure et ses moyens au, ou différent du, système immersif source 10. En particulier, le système d'affichage 22 du système immersif cible 20 peut être identique au système d'affichage 12 du système immersif source 10 ou au contraire en être différent, par exemple par un nombre d'écrans mis en œuvre, et ou par une forme des écrans, et ou par la taille des écrans, et ou par un agencement du ou des écrans, et ou par le fait que le ou les écrans soient portés ou non par l'utilisateur, et ou par la capacité ou non de restituer des images pour une observation en stéréoscopie.
Dans l'exemple du dispositif 100 schématisé sur la figure 1 , le système d'affichage 22 du système immersif cible ne comporte qu'un seul écran 22a alors que le système d'affichage 12 du système immersif source en comporte quatre.
L'écran 22a, unique écran du système d'affichage 22 dans l'exemple de réalisation illustré sur la figure 1 , est par exemple un écran de projection, ou un écran vidéo conventionnel, télévision ou écran d'ordinateur, voire un écran de téléphone ordinateur.
Le système de traitement numérique 21 du dispositif immersif cible 20 comporte principalement une mémoire, ou base de données locale, dans laquelle sont stockées des caractéristiques du système immersif source et du système immersif cible utilisées pour la transformation de données d'affichage correspondant aux images, et un calculateur numérique sur lequel est exécuté un logiciel de traitement des données d'affichage dont les principes sont exposés ultérieurement dans la description.
Par simplification, dans la suite de la description, les termes « source » et « cible » seront utilisés pour désigner les éléments respectivement du système immersif source 10 et du système immersif cible 20. Suivant le contexte, le système immersif source 10 pourra être désigné « système source » et le système immersif cible 20 désigné « système cible ».
Le dispositif 100 comporte également des moyens de transmission de données 30 entre le système source 10 et le système cible 20.
De tels moyens de transmission de données 30 consistent en tous moyens connus dans le domaine de la transmission de données entre des ordinateurs, et qui seront dans le cas de l'invention choisis en fonction du débit de données qui devra être assuré, de la distance entre les systèmes immersifs du dispositif, du nombre de système connectés et des ressources disponibles en moyens de communication. Dans une forme de réalisation, la transmission de données est réalisée par un réseau 31 de communication tel que le réseau Internet et la mise en œuvre des interfaces et protocoles de communications adaptées à ce réseau. La transmission des données peut également mettre en œuvre des liaisons optiques, des liaisons radio, et des liaisons filaires de différents types.
La suite de la description est faite en référence au fonctionnement du dispositif 100 lorsque le système source 10 génère les données d'affichage d'un environnement virtuel dont les images sont affichées sur le système d'affichage source 12, environnement virtuel dans lequel l'utilisateur 90 est immergé, et que ledit système source transmet au système cible 20 des données relatives aux données d'affichage générées par le système de traitement numérique source 11 .
II doit être noté que la description détaillée ne considère qu'un seul système cible pour des raisons de simplification, mais que le dispositif 100 peut comporter un nombre quelconque de systèmes cibles, tous les systèmes cibles étant indépendants entre eux, pouvant être différents dans leurs structures, et fonctionnent de manière similaire avec les données reçues du système source.
Lors du fonctionnement du dispositif 100, le logiciel de calcul d'images exécuté sur le système de traitement numérique source 11 génère une représentation de l'environnement virtuel dans lequel l'utilisateur 90 du système source est immergé et produit des données d'affichage de ladite représentation de l'environnement virtuel pour chacun des différents écrans 12a, 12b, 12c, 12d du système d'affichage source 12.
Ces données d'affichage sont générées en fonction des paramètres susceptibles de modifier la perception visuelle de l'environnement virtuel par l'utilisateur 90, en particulier d'une position dans l'espace d'un point depuis lequel l'utilisateur 90 voit chacun des écrans 12a, 12b, 12c, 12d du système d'affichage source 12 et une direction d'observation dans laquelle regarde l'utilisateur, la direction d'observation correspondant à un axe optique des moyens d'observation, en pratique des yeux. Cette position et cette direction qui lui sont associées sont désignées globalement par la suite « point d'observation ».
Le point d'observation peut être unique et par exemple correspondre sur l'utilisateur 90 à une position intermédiaire entre ses deux yeux.
Le point d'observation peut également être double, lorsqu'il est recherché une perception du relief par une vision binoculaire, et alors la position de chacun des deux yeux de l'utilisateur 90 détermine un point d'observation.
Il est à noter ici que, pour réaliser les calculs correspondant à la génération des données d'affichage correspondant aux images affichées sur chacun des écrans, le système de traitement numérique associé au système d'affichage dispose nécessairement des données relatives aux caractéristiques et à l'agencement des différents écrans du système d'affichage.
Les images calculées sont affichées sur les écrans correspondants. Les données d'exploitation générées par le système source sont transmises, via les moyens de transmission de données 30, au système cible.
Il doit être compris ici que lesdites données d'exploitation peuvent être transmises sous toutes formes de données suivant un protocole compris par le système cible et qui permet la reconstruction des données d'affichage ainsi que des conditions d'observation associées.
Les données d'exploitation générées par le système source ne peuvent cependant pas produire directement des images affichées correctement sur le système d'affichage cible 22 en particulier en raison des différences de structure des systèmes d'affichage cible et source, et ou des conditions d'observation, attribuées respectivement à l'utilisateur 90 et à l'observateur 91 , dans chacun des systèmes source et cible qui ne sont pas corrélés.
En effet, même dans l'hypothèse où les systèmes d'affichage source et cible sont identiques, il est en pratique impossible que le point d'observation, et donc les conditions d'observation, de l'observateur 91 dans un référentiel du système d'affichage cible 22 soit maintenu à tout instant identique au point d'observation de l'utilisateur 90 dans un référentiel du système d'affichage source 12, et en supposant que des données d'affichage générées par le système source soient affichées directement sous la forme d'images sur des écrans du système d'affichage cible, elles donneraient à un observateur 91 du système cible une vision de l'environnement virtuel déformée, voire inutilisable.
A titre d'illustration d'une situation simple où les systèmes d'affichage source et cible sont identiques, une image d'une ligne droite de l'environnement virtuel, qui serait génère dans le système source 10 pour être affichée sur deux écrans dont les surfaces d'affichage ne seraient pas coplanaires, apparaîtrait comme une ligne brisée pour un observateur du système cible 20 dont le point d'observation serait différent de celui ayant servi à générer les données d'affichage dans le système source.
Afin de présenter à l'observateur 91 du système immersif cible une représentation cohérente de l'environnement virtuel dans lequel est immergé l'utilisateur du système source, chaque image au travers des données d'exploitation reçues du système source par le système cible est transformée par un logiciel de traitement des données d'affichage en fonction des conditions d'observation dans le système source du système cible. Le logiciel de traitement d'image est de préférence opéré, au moins pour partie, par le système de traitement numérique cible 21 .
Comme il sera compris de la suite de la description, une partie du traitement d'image peut également être opérée par le système source, ou par tout système disposant des capacités de communiquer avec les systèmes source et cible pour recevoir et transmettre les données nécessaires.
La transformation des données d'affichage consiste principalement à reconstituer virtuellement l'environnement physique du système d'affichage source 12 et à forcer le point d'observation de l'observateur 91 à la même position dans l'environnement source virtuel que le point d'observation de l'utilisateur 90 dans le système d'affichage source 12.
Suivant ce principe, comme illustré sur la figure 2, il est créé dans le système cible 20 une représentation virtuelle 3D du système d'affichage source 12', en fonction des paramètres du système d'affichage source 12, sur des écrans virtuels 12'a, 12'd, 12'c de laquelle représentation virtuelle du système d'affichage source sont affichées les images des données d'affichage reçues correspondant à chacun des écrans 12a, 12d, 13c réels du système source, voir figure 2. Il est ainsi formé dans le système cible un environnement virtuel 3D représentant à tout moment, au délai de latence près, le système d'affichage source 12 avec sa représentation visuelle de l'environnement virtuel du système source.
Le système cible 10 traite alors numériquement la représentation virtuelle 3D du système d'affichage source 12' pour en construire une représentation visuelle sur le système d'affichage cible 22 en fonction des conditions d'observation de l'observateur 91 du système cible, dans laquelle représentation visuelle sur le système d'affichage cible, les position et orientation effectives, mesurées ou présupposées, d'observation dans le système d'affichage cible sont également les position et orientation d'observation dans la représentation virtuelle 3D du système d'affichage source et qui correspondent aux positions et orientations effectives, mesurées ou présupposées, d'observation de l'utilisateur dans le système de visualisation source réel, comme illustré sur la figure 2 où un centre 40 des projections correspond à la fois au point d'observation virtuel dans la représentation virtuelle 3D du système source et au point d'observation effectif dans le système cible 22.
Le traitement numérique correspond dans ce cas en des projections 3D des images de la représentation virtuelle 3D du système d'affichage source 12' sur le ou les écrans du système d'affichage cible 22, lesdites projections ayant comme centre 40 de projection les position et orientation d'observation dans la représentation virtuelle 3D de l'observateur 91 .
Le système cible 20 présente ainsi à l'observateur 91 un système source virtuel en ce qu'il reconstruit à tout moment le comportement, pour les images affichées de l'environnement virtuel, du système source 10 et qu'il assure que, quelle que soit la position et l'orientation de l'observateur 91 , ledit observateur a une position et une orientation dans la représentation virtuelle 3D du système d'affichage source 12', identique à celle de l'utilisateur 90 dans le système source 10, bien que les systèmes source et cible puisse avoir des configurations différentes et que l'utilisateur 90 et l'observateur 91 aient des conditions d'observation qui évoluent, en pratique, indépendamment dans leurs systèmes immersifs respectifs. Par exemple pour le calcul d'une représentation cohérente de l'environnement virtuel sur le système immersif cible, les points d'observation de l'utilisateur 90 du système source et de l'observateur 91 du système cible sont superposés dans la représentation virtuelle 3D du système d'affichage source 12' et pris comme le centre 40 et un axe de référence 41 d'un système de coordonnées sphériques utilisé pour réaliser les projections. Chaque point image 121 du système d'affichage source réel 12 ou virtuel 12' dans une direction 42 donnée depuis le point d'observation 40 correspond à un point image 221 du système d'affichage cible 22 dans la même direction et le point image 221 dans le système cible reprend alors les caractéristiques (couleur, luminosité...) du point image 121 du système source. Cette condition n'est bien sûr valide que lorsque les deux points images visuellement superposés dans les deux systèmes immersifs existent.
Si, lors de ces projections, un point image du système source n'a pas d'équivalent en projection dans le système cible, il ne pourra pas être affiché dans ledit système cible. A contrario, si un point image du système cible n'a pas d'équivalent en projection dans le système source, le point image dans ledit système cible correspondra à une zone « vide » dans l'affichage du système cible.
Lorsque les données d'affichage générées par le système source 10 ont été traitées suivant les principes exposés supra, les images sont affichées par le système cible 20 sur le ou les écrans du système d'affichage dudit système cible.
Il doit être remarqué que la position et l'orientation de l'observateur 91 du système cible par rapport au système d'affichage cible 22 sont des paramètres pris en compte pour réaliser la transformation des données d'affichage. Cette prise en compte est nécessaire pour que la représentation de l'environnement virtuel soit cohérente avec le point de vue qui l'a générée sur le système source et qu'il soit reproduit sur le système cible l'effet immersif recherché.
Toutefois, pour la reconstruction cohérente des données d'affichage sur le système cible, la condition de superposition des positions d'observation est nécessaire alors que la condition de superposition des directions d'observations est optionnelle, et cette dernière condition ne se justifie que lorsqu'il est recherché que la représentation visuelle vue par l'observateur 91 dans le système cible 20 soit celle de l'utilisateur 90 dans le système source, y compris en direction.
Lorsque seules les positions d'observation sont maintenues identiques, l'observateur 91 dans le système cible dispose, dans les limites de l'angle solide de l'espace dans lequel une image est affichée, de la possibilité de regarder la représentation de l'environnement virtuel dans une direction différente de celle dans laquelle l'utilisateur 90 regarde cet environnement virtuel dans le système source, mais qui correspond alors à la représentation visuelle qu'en aurait ledit utilisateur dans le système source s'il regardait dans la même direction que l'observateur dans le système cible.
Il doit donc être compris que, en fonction de l'effet recherché, il pourra n'être exploité dans les données que celles relatives à la position du point d'observation seule ou bien celles relatives la position du point d'observation combinée avec la direction d'observation.
La position du point d'observation et l'orientation d'observation de l'observateur 91 sont déterminées, par exemple mesurées en temps réel et transmises au système de traitement numérique cible 21 , pour être prises en compte dans les calculs de transformation des données d'affichage. Le cas échéant la position et ou la direction d'observation sont simplement estimées ou présupposées. Par exemple, lorsque plusieurs observateurs regardent le ou les écrans dans le système d'affichage du système cible des valeurs moyennes des conditions d'observation des différents observateurs peuvent être calculées ou supposées, étant compris qu'il s'agit d'un compromis produisant nécessairement des distorsions des images affichées par le système cible qui pourront être perçues par certains observateurs.
Ainsi il est réalisé un système cible 20 qui permet à un observateur 91 d'être immergé dans un environnement virtuel créé par un système source 10, qui peut être distant.
Ce résultat est obtenu sans transmission des données de la base de données 11 a mise en œuvre par le système source, y compris avec un système cible 20 dont la configuration, en particulier du système d'affichage, est différente de celle du système source 10. Il permet, entre autres, de mettre en œuvre dans le système cible 20 un système de traitement numérique 21 de performances inférieures à celui nécessaire au système source 10 pour générer l'environnement virtuel. Il n'exige pas la mise en œuvre de coûteux logiciels de calculs d'images de synthèses. Il n'exige pas la compatibilité des systèmes d'affichages des systèmes cible et source, ni que l'observateur 91 soit tenu de maintenir des conditions d'observation imposées dans le système de visualisation cible 22 pour visualiser les images comme l'utilisateur 90 les perçoit dans le système d'affichage source 12.
Le mode de réalisation du dispositif 100 décrit n'est cité qu'à titre d'exemple. Les architectures matérielles du système source et du ou des systèmes immersifs cibles peuvent être différentes de celles schématisées dans la description pour réaliser les mêmes fonctions.
La transformation des données d'affichage transmises peut être réalisée par tout algorithme de transformation pouvant réaliser les projections nécessaires, la méthode décrite précédemment n'étant qu'une illustration théorique simplifiée de la transformation par projections sphériques.
La transformation des données d'affichage est avantageusement réalisée par le système cible qui connaît la définition de son système d'affichage 22 et qui prend localement en temps réel, avec une latence minimale, les autres paramètres qui lui sont propres comme les conditions d'observation de l'observateur. Dans ce cas, le système cible doit également disposer de la définition des conditions dans lesquelles le système source génère les données d'affichage, paramètres du système d'affichage en particulier, par exemple transmise en début de connexion avec un ensemble de données invariables des données d'exploitation au dispositif des systèmes source et cibles, ainsi que les position et orientation d'observation de l'utilisateur 90 dans le système d'affichage source 12.
Toutefois la transformation des données d'affichage peut être réalisée en partie par le système source, ou par un autre système, pour autant que soient transmises par le système cible les données d'exploitation nécessaires aux traitements des données d'affichage pour produire les images devant être affichées sur le système d'affichage dudit système cible.
Dans ce cas, comme déjà signalé, les transformations appliquées aux données d'affichage nécessitant l'utilisation de variables propres au système cible 20, notamment les position et direction d'observation de l'utilisateur 91 dudit système cible, sont réalisées sur le système de traitement numérique 21 dudit système cible, ce qui permet de réaliser la synchronisation des images affichées par le système d'affichage cible 22 avec lesdites variables propres au système cible.
Dans une forme de réalisation, le système source 10, ou un autre calculateur annexe, réalise une première transformation des données d'exploitation en données d'exploitation adimensionnelles, indépendantes de la structure d'un système de visualisation devant afficher les images, par exemple en attribuant les caractéristiques de chaque point image associées à une direction dudit point image déterminée en coordonnées sphériques dans un système d'axes attaché au point d'observation dans le système d'affichage 12 dudit système source. Le système cible 20 utilise alors les données d'exploitation adimensionnelles reçues pour produire des données d'affichage adaptées à son système d'affichage 22 en attribuant à chaque point d'un écran dans une direction donnée des conditions d'observation dans le système d'affichage cible 22 les caractéristiques attribuées au point image correspondant à la même direction dans les données d'affichage adimensionnelles.
Dans l'exemple de réalisation qui vient d'être décrit de manière détaillée, le système immersif cible permet à l'observateur (91 ) de visualiser correctement une représentation d'un environnement virtuel sensiblement simultanément à la génération de ladite représentation par un autre système immersif.
Dans d'autres formes de réalisation, un système source délivrant la représentation de l'environnement virtuel n'est pas nécessairement associé à des moyens d'affichage. Un tel système source est par exemple un enregistrement des données d'affichage réalisé sur un système de génération d'images de synthèse, qui peut être un système immersif ou non. Un tel système source est par exemple un système délivrant des images d'un monde réel, enregistré ou en temps réel, virtualisé par le dit système pour transférer des données d'affichage. Un tel système source peut également être un système combinant les capacités de produire des images de synthèses combinées avec des images d'un monde réel suivant une logique de réalité augmentée.
Lorsque qu'il est, dans un système immersif, réalisé une visualisation stéréoscopique de l'environnement virtuel, chaque œil voit une image différente correspondant à des conditions d'observation différentes qui peut conduire à réaliser les transformations des données d'affichage pour chacune des conditions d'observation, au moins lorsque les deux systèmes source et cible sont configurés pour afficher les images de l'environnement virtuel avec un effet de relief.
Dans ces formes de réalisation, les données d'affichage comportent des images virtuelles ou virtualisées, représentations de l'environnement virtuel vu dans une fenêtre d'observation du système source, équivalente au système d'affichage du système immersif source du mode de réalisation décrit supra.
Les données d'affichage reçues du système source par le système immersif cible sont interprétées pour reconstruire, dans le système d'affichage du système immersif cible, une représentation de l'environnement vue dans la fenêtre d'observation source.
Ainsi il est présenté à l'observateur dans le système immersif cible une représentation stable de la représentation de l'environnement vu par le système source en assurant la cohérence des images affichées dans le système d'affichage dudit système immersif cible avec celles de la fenêtre d'observation source par laquelle cet environnement est ou a été généré et ou vu.
Le système de traitement numérique cible 21 possède des capacités de synthèse de données d'affichage adaptées à son propre système d'affichage, qui peuvent avantageusement être exploitées pour faciliter la compréhension et ou renforcer l'immersion de l'observateur du système cible. Ainsi, le système immersif cible comporte le cas échéant toute ou partie des caractéristiques suivantes, pouvant être combinées entre elles dans le système immersif cible pour autant qu'elles soient compatibles entre elles : - des zones du système d'affichage du système immersif cible, ne recouvrant pas les images transmises par le système source dans les données d'affichage, affichent un fond d'affichage généré par les moyens de calculs dudit système immersif cible, en particulier pour améliorer la visibilité ou la lisibilité de la représentation affichée.
- le fond d'affichage comporte un ou plusieurs motifs parmi : une couleur, un gris ou un noir uniforme ; des zones de couleurs, gris ou noir, différentes dont des directions de séparations et ou transitions correspondent à des directions privilégiées de l'environnement ; une ou des textures.
- une texture est superposée à l'image de la fenêtre d'observation. Une telle texture augmente au besoin la qualité de la perception de la représentation de l'environnement par l'utilisateur du système immersif cible en produisant une représentation correspondant à une perception coutumière de l'environnement.
- les moyens de calculs du système immersif cible sont configurés pour incruster un ou des d'éléments d'interface dans l'affichage du système d'affichage cible, représentés comme des objets à une, deux ou trois dimensions. De la sorte l'utilisateur du système immersif cible dispose d'un ensemble de fonctions qui lui sont accessibles au travers desdits éléments d'interface comme par exemple des fonctions de gel d'image, des fonctions d'enregistrement, des fonctions d'annotation.
- une position et ou des dimensions des images des données d'affichage source représentées dans le système d'affichage du système immersif cible sont fonction d'une position depuis laquelle, et ou d'une direction vers laquelle, dans le système d'affichage dudit système immersif cible, l'observateur immergé dans ledit système immersif cible regarde ledit système d'affichage du système immersif cible. De la sorte les mouvements dudit observateur sont pris en compte pour corriger les images affichées et en maintenir la vision avec une perspective exacte.
- au moins une partie des images des données d'affichage source est maintenue affichée dans le système d'affichage cible lorsque lesdites images sont théoriquement hors d'une zone d'affichage du système d'affichage cible, ladite au moins une partie de l'image de la fenêtre d'observation étant représentée maintenue contre un bord de ladite zone d'affichage du système d'affichage cible dans une direction dans le référentiel dudit système d'affichage cible vers laquelle un observateur du système immersif cible devrait déplacer une direction vers laquelle il regarde ou devrait déplacer l'orientation dans l'environnement virtuel du système de visualisation cible pour se rapprocher de la direction d'observation correspondant aux données d'affichage reçues du système source. L'utilisateur du système immersif cible ne perd ainsi pas totalement la vision de l'environnement bien que sa représentation soit théoriquement en dehors de son champ de visibilité, lui permettant de trouver intuitivement la direction vers laquelle doit se diriger le regard pour retrouver à sa position actuelle la représentation de l'environnement virtuel.
- lorsque les images des données d'affichage transmises par le système source sont hors de la zone d'affichage du système d'affichage du système immersif cible, une représentation symbolique est incrustée à proximité d'un bord ou attachée à un bord de ladite zone d'affichage dans une direction, dans le référentiel du système d'affichage cible vers laquelle l'observateur du système immersif cible devrait déplacer une direction vers laquelle il regarde ou devrait déplacer l'orientation dans l'environnement virtuel du système d'affichage cible pour se rapprocher de la direction d'observation associée aux données d'affichage transmises par le système source. Ainsi l'utilisateur identifie naturellement la direction dans laquelle se trouve l'image même lorsqu'il n'en a plus aucune visibilité dans son système d'affichage cible.
- le système immersif cible comporte des capacités d'interaction par un utilisateur dudit système immersif cible, par des commandes réelles ou virtuelles accessibles audit utilisateur, avec les images affichées par le système d'affichage cible.
- les capacités d'interaction comportent de superposer des annotations, textes et ou dessins, aux images affichées.
- le système immersif comporte un enregistreur des images affichées par le système de visualisation cible lors d'une séance d'immersion.
L'invention concerne également un procédé 200, figure 4, pour partager un environnement immersif entre un système source 10 et au moins un système immersif cible 20, d'un dispositif 100, en limitant les données échangées tant en raison de leur aspect confidentiel et en limitant les exigences matérielles et logicielles du système cible. Suivant le procédé, il est échangé entre le système source et un ou plusieurs systèmes cibles un ensemble d'informations ou données permettant à chaque système cible recevant du système source des données d'exploitation de reconstituer et mettre à jour en temps réel une représentation visuelle d'un environnement virtuel répliquant, au moins en partie, la représentation visuelle de l'environnement virtuel générée par le système source.
Comme décrit précédemment, dans le dispositif 100, chacun du système source et du ou des systèmes immersifs cibles qui interviendra dans le partage d'immersion intègre des moyens de connexion à des moyens de transmission 30 assurant la mise en relation desdits système source et systèmes immersifs cibles.
Suivant le procédé, dans une étape préalable 210, à chacun des système source et systèmes immersifs cible est associé un ensemble de données de configuration.
Les données de configuration intègrent toutes les informations nécessaires à la description physique ou virtuelle du système source ou du système immersif cible, et notamment à sa reconstruction à l'échelle 1 .
Les données de configuration d'un système immersif comportent par exemple :
- un identifiant du système immersif ;
- un nombre d'écrans ;
- des tailles et formes de chaque écran ;
- un agencement des écrans dans un référentiel d'un système d'affichage ; - une capacité d'affichage d'images stéréoscopiques et des conditions associées ; - des transformations colorimétriques et ou géométriques propres au système et devant être appliquées à chaque pixel d'une image devant être affichée sur un écran ;
- des capacités à restituer une ou plusieurs positions et directions d'observation.
Ces données sont adaptées autant que de besoin à la forme spécifique du système considéré et à ses conditions de mise en œuvre.
Les données de configuration, dont la liste ci-dessus n'est ni exhaustive ni exigée mais qui doit comprendre au minimum toutes les informations nécessaires aux échanges de données et au traitement des données réalisées lors de la mise en œuvre du procédé, sont établies pour chaque système, immersif ou non, du dispositif, de façon manuelle, automatique ou semi-automatique en fonction des capacités du système considéré.
Dans certaines formes de réalisation de systèmes immersifs, certaines de ces données peuvent varier au cours du temps, par exemple dans le cas d'un système immersif mobile dont l'orientation et ou la position des écrans varient au cours du temps lors d'une immersion.
Dans une telle situation, les données de configuration sont transmises au(x) système(s) cible(s) de manière similaire aux données d'exploitation comme exposé pour les étapes suivantes.
Les données de configuration peuvent être incorporées dans les données d'exploitation.
Dans une première étape 220 d'initialisation, le dispositif 100, regroupant les systèmes source 10 et cibles 20 au moyen desquels une immersion doit être assurée par les système immersifs cibles, voire partagée avec le système source, est initialisé.
Dans cette étape d'initialisation, chacun des systèmes immersifs cibles 20 du dispositif initialise un registre du système source connecté, ledit registre comprenant avantageusement l'ensemble des données de configurations de chacun desdits systèmes connectés, et avantageusement l'ensemble des données de configurations au moins du système source 10 pour les systèmes cibles 20. Dans la pratique les données de configuration, ainsi que des valeurs d'initialisation de variables, initialisées par un système immersif ou non donné pourront être limitées aux seules données strictement nécessaires aux transmissions de données et aux calculs qui devront être réalisés par ledit système.
A tout instant, l'ensemble des données de configuration du système source doit pouvoir être accessible par un système immersif cible pour que ledit système source puisse transmettre les données d'affichage audit système cible, l'accessibilité à ces données pouvant être réalisée dans une forme de réalisation d'un dispositif 100 par exemple via un enregistrement dans une base de données locale au système de traitement numérique dudit système immersif cible.
Dans une autre forme de réalisation d'un dispositif 100, un serveur de données 32a, connecté au réseau 31 des moyens de transmission des données 30, et accessible par chacun des système source 10 et systèmes immersifs cibles 20, comporte une base de données dans laquelle sont stockées des données de configuration de chacun des systèmes immersifs ou non dudit dispositif, au moins pour celles qui sont nécessaires lors de l'étape d'initialisation, et chacun des systèmes immersifs pendant cette étape d'initialisation reçoit du serveur les données de configuration, au moins pour celles qui lui sont nécessaires compte tenu des transformations qu'il devra réaliser sur les données d'affichage.
Avantageusement, quel que soit le mode de mise en œuvre de cette première étape, la base de données pourra être mise à jour pendant la mise en œuvre du procédé en fonction de la connexion, déconnexion ou changement de rôle d'au moins un système immersif du réseau.
Dans une étape 230 de génération d'environnement, étape indépendante réalisée de manière récurrente lorsque le système source 10 est en fonctionnement, des données d'exploitation source de représentations visuelles d'un environnement virtuel sont générée sur ledit système source.
Les données d'exploitation sources comportent :
- les « données des conditions d'observation »
- les « données d'affichage » Les données des conditions d'observation comportent la position depuis laquelle et la direction dans laquelle, chacune des position et direction pouvant être mesurées ou présupposées, l'utilisateur regarde dans le système d'affichage source 12 à un moment donné, ou dans laquelle des images ont été générées par exemple par un dispositif de prise de vue d'un environnement réel ainsi virtualisées. Ces données sont prises en compte dans le calcul de la représentation de l'environnement virtuel à l'attention d'un utilisateur du système source immergé dans ledit environnement et interviennent dans la construction des images affichées. A défaut de valeur mesurées, les positions et ou la direction sont présupposées, par exemple par identification d'une position et ou orientation idéale pour utiliser le système d'affichage, ou moyenne si plusieurs utilisateurs peuvent être accueillis, ou imposée si le système immersif incite le ou les utilisateurs à se rapprocher d'une position et ou orientation spécifique.
Dans un mode de mise en œuvre, les données d'affichage, calculées pour chaque cycle d'affichage en fonction d'une fréquence de rafraîchissement des dites données d'affichage, sont capturées, une fois calculées, par une application logicielle opérée dans le système de traitement numérique 11 du système source.
Dans un autre mode de mise en œuvre, les données d'affichage sont capturées lors de leurs transmissions aux moyens d'affichage source 12, par exemple par un branchement sur la liaison vidéo 13 d'un équipement vidéo 14 entre le système de traitement numérique source 11 et les moyens d'affichage source 12.
Dans un mode de mise en œuvre, si le système immersif source affiche des images stéréoscopiques, les données d'affichage capturées sont capturées pour une seule des conditions d'observation, par exemple les données d'affichage correspondant à un seul œil, ou en stéréo, en fonction des capacités du système cible à restituer ou non des images en mode stéréoscopique ou en fonction d'options choisies par un opérateur du système cible. Il est ainsi possible de réduire le flux de données et les besoins en bande passante des moyens de transmission des données 30.
Dans un mode de mise en œuvre, si le système immersif source estime et utilise des positions et orientations de plusieurs utilisateurs simultanément, les données d'affichage sont capturées pour chacune des conditions d'observation et associées aux conditions d'observation correspondantes dans les données d'exploitation.
L'équipement vidéo 14 réalise ainsi la capture des données d'affichage lors de leur transmission au système d'affichage source 12, par exemple par une lecture des signaux correspondant aux images sur la liaison vidéo 13, convertit lesdites images dans un format adapté à leurs transmissions et les transmets via les moyens de transmission de données 30 du dispositif.
A l'issue de cette étape 230, les données d'exploitation source sont envoyées, directement ou indirectement, par le système source vers les utilisateurs des informations contenues dans lesdites données d'exploitation source. Les utilisateurs sont par exemple chacun des systèmes immersifs cibles qui sont connectés audit système source ou un calculateur annexe 32b raccordé au réseau 31 qui reçoit les données pour les retransmettre aux systèmes cible, éventuellement après avoir réalisé un traitement des données d'exploitation.
Dans une deuxième étape 240 de transformation, les données d'exploitation source sont transformées en fonction des données de configuration d'un système immersif cible, et en fonction de variables générées 242 par ledit système immersif cible, notamment les données d'observation correspondant aux conditions d'observation effectives dans le système d'affichage 22 dudit système immersif cible.
Au cours de cette deuxième étape, sont réalisées les opérations de :
- Reconstruction 3D à l'échelle 1 , par rapport au système de visualisation cible, de la configuration géométrique du système d'affichage source pour obtenir un système d'affichage source virtuel sans image, i.e. indépendamment d'images qui sont affichées sur le ou les écrans dudit système d'affichage source ; - Affichage sur chacun des écrans du système d'affichage source virtuel des données d'affichage associées, pour obtenir une représentation virtuelle complète de l'état des affichages du système source décrit par les données d'affichage reçues.
- Repositionnement du système d'affichage source virtuel par rapport à l'observateur utilisateur du système cible pour que les données des conditions d'observation source virtuelles, correspondant dans le système d'affichage source virtuel aux données des conditions d'observation réelles dans le système d'affichage source réel, correspondent aux données des conditions d'observation cible effectives, au moins pour la position d'observation.
-Synthèse des images constituant l'ensemble des données d'affichage du système cible par les moyens de traitement numérique du système cible en fonction des données des conditions d'observation cible, en utilisant les données de l'environnement reconstitué sur le système cible à partir des données d'exploitation du système source.
Avantageusement, dans un mode de réalisation, la reconstruction 3D virtuelle du système d'affichage source, sans image affichée sur des moyens d'affichage du système source virtuel, peut être mise en cache par le système de traitement numérique du système immersif cible, et ainsi être réutilisée pour les itérations suivantes.
Suivant le principe de transformation des données d'affichage du procédé, les données des conditions d'observation de l'environnement virtuel du système source sont les mêmes que les données des conditions d'observation de l'observateur 91 dans l'environnement virtuel affiché dans le système d'affichage source virtuel sur le système cible, la représentation visuelle dudit environnement virtuel étant reconstituée dans cet objectif. Cette condition est forcée pour que les images générées par le système source 10, puissent être vues sans déformation par l'observateur 91 dans le système d'affichage cible 22.
Les données d'affichage initialement calculées par le système source n'ont donc pas besoin d'être recalculées pour de nouvelles conditions d'observation dans le système cible, les conditions d'observation, en position et en direction, étant virtuellement superposées dans l'environnement virtuel du système source et dans l'environnement virtuel du système cible.
L'ensemble des données et programmes nécessaires aux calculs des données d'affichage par les moyens de traitement numérique du système source n'a ainsi pas besoin d'être répliqué sur le système cible, au contraire de l'art antérieur.
Dans des cas particuliers comme par exemple lorsqu'il est pris en compte une vision stéréoscopique, donc mettant en œuvre deux points d'observations distincts, l'ensemble des données des conditions d'observation peuvent être dupliquées pour correspondre à chacun des points d'observation, ou être transmises seulement pour un point d'observation, les conditions d'observation pour le second point étant limitées à des données de position relatives du second point par rapport au premier, par exemple distance et direction du second point par rapport au premier point, limitant le volume des données de conditions d'observations à transmettre.
Les données d'observation peuvent également correspondre à point fictif d'observation, par exemple un œil cyclope, et les conditions d'observation pour chacun des points étant limitées à des données de positions relatives de chacun des points réels d'observation par rapport au point fictif.
Dans un mode de mise en œuvre, tout ou partie des données d'exploitation transmises par le système source sont gelées soit par le système source avant leur transmission, soit par le système immersif cible à leur réception.
Il peut s'agir de données d'affichage, ou de données des conditions d'observations, ou d'un sous-ensemble des données des conditions d'observation.
Dans ce cas, les données gelées soit ne sont plus émises par le système source, ou sont émises avec des valeurs constantes, soit ne sont temporairement plus prises en compte par le système cible et les dernières données d'exploitations reçues et traitées par le système cible sont figées. Le gel est commandé par une instruction d'un des systèmes source ou cible par exemple sur un ordre de l'utilisateur 90, ou de l'observateur 91 , ou d'un opérateur du système source ou du système cible. L'ordre peut également affecter le système source qui est alors gelé et dans ce cas le système cible subit le gel des données concernées, ou n'affecter que le système cible qui dans ce cas n'implique pas nécessairement le gel du système source mais seulement un arrêt de la prise en compte des évolutions des données concernées émises par le système source.
Lors de l'activation de cette étape 241 de gel des données, la possibilité de mettre à jour les images sur le système immersif cible par le traitement des données d'exploitations figées dans ledit mode gel d'exploitation est maintenu, ledit système immersif cible pouvant dans ce cas recalculer en temps réel les données d'affichage pour les images devant être affichées par le système d'affichage cible 22 en fonction de modification des conditions d'observation dans ledit système d'affichage cible pour conserver une représentation correcte de l'environnement virtuel figé.
Dans ce mode de fonctionnement, il est possible pour un observateur 91 de se déplacer dans le système de visualisation cible sans que la représentation de l'environnement virtuel ne soit instable. Il est alors plus aisé à l'observateur 91 de mettre en œuvre des méthodes de pointage ou d'annotations, bien connues de l'homme du métier, répercutées sur le système source, par exemple dans le contexte d'un travail collaboratif sur l'environnement virtuel, même si de telles méthodes peuvent être appliquées lorsque la fonction de gel n'est pas activée.
Il est aussi possible de maintenir pour l'utilisateur 90 du système source une perception exacte de l'environnement virtuel généré par le système immersif source, en maintenant dans le système immersif cible, une vision par l'observateur 91 correcte et stable dudit environnement virtuel placé dans cette condition de gel malgré des variations des conditions d'observation dans ledit système source.
Les données d'affichage dans le système immersif cible sont alors interprétées, lorsque les données correspondantes sont gelées, comme si l'environnement virtuel était totalement statique et que l'utilisateur du système source ne se déplaçait plus, résultant ainsi en une sorte de capture 3D de l'état dudit système source.
Par des commandes spécifiques, l'étape de gel peut également concerner l'ensemble des données relatives aux conditions d'observation, ou seulement un sous-ensemble de ces données. Par exemple, lors d'une étape de gel, un opérateur, un utilisateur ou un observateur, peut choisir de geler ou non les variables de position des données d'observation et de geler ou non les variables d'orientation des données d'observation. Avantageusement, les données affichées par le système d'affichage source virtuel ne varient plus, et les points image dudit système d'affichage source virtuel sur lesquels sont réalisés les pointages et ou annotations sont constants.
Dans un mode de mise en œuvre, une étape 243 d'enregistrement des données d'exploitation source est activée.
Avantageusement, dans un mode de réalisation, lesdites données d'exploitation source préenregistrées sont utilisées par le système de traitement en tant que données d'exploitation source, permettant ainsi sur le système cible, qui pourrait être ledit système source, de rejouer une immersion préenregistrée.
Dans une troisième étape 250 d'affichage, l'ensemble des données d'affichage résultant de la transformation est transmis au système d'affichage cible 22 dont les données d'exploitation ont été prise en compte lors de la transformation des images générées par le système source.
Afin de former et d'afficher en temps réel une représentation visuelle d'un environnement immersif pour un observateur, disposant d'un système immersif cible, copie de la représentation visuelle de l'environnement immersif généré par le système source, le procédé est rebouclé après la troisième étape 250 sur la deuxième étape 240.
Le cycle avec lequel le procédé est rebouclé pour afficher une nouvelle représentation de l'environnement virtuel sur le système d'affichage du système cible, cycle dont le temps peut être contraint par les performances de calculs des systèmes de traitement numérique de chacun des systèmes source et cibles, ainsi que par les performances des moyens de transmission des données par lesquels les données sont échangées entre lesdits systèmes source et cibles, est repris à chaque fois que le système immersif cible a fait une acquisition de données d'exploitation correspondant à une représentation de l'environnement virtuel sur le système source.
Pour autant qu'il n'aura pas été mis en pause par l'activation de l'étape 241 de gel de données, le calcul est répété avantageusement aussi rapidement que les systèmes de traitement numérique des systèmes source et cible le permettent, au moins pour offrir à un observateur 91 une immersion perçue cohérente avec sa génération par le système source, par exemple quasi simultanée avec celle de l'utilisateur 90 du système source lorsque le dit système source est un système immersif.
Variantes de réalisation
Comme précisé, la notion de conditions d'observation regroupe les notions de position d'observation et ou de direction d'observation. Ces paramètres de position et de direction peuvent être déduits de mesures ou d'analyses. Par exemple la direction d'observation peut se déduire d'une mesure de position des deux yeux d'un utilisateur ou d'un observateur.
Des conditions d'observations présupposées ou prédéterminées peuvent également être utilisées pour l'un ou l'autre du système source et d'un système immersif cible, ou pour les deux, la mise en œuvre du procédé permettant d'adapter les affichages par la prise en compte des différences entre les deux systèmes.
L'invention telle que décrite dans le cas d'un système source 10 comportant un système d'affichage 12 multi-écrans de type CAVE et d'un seul système immersif cible 20 comportant un système d'affichage 22 avec un seul écran, est susceptible de variantes sans se démarquer des principes de l'inventions détaillés dans l'exemple décrit.
Le dispositif peut comporter un système source et un nombre quelconque de systèmes immersifs cibles, comme schématisé sur la figure 3 d'un dispositif 100 comportant trois systèmes immersifs cibles 20 de différents types, qui peuvent reproduire simultanément un environnement même virtuel généré par le système source dans les systèmes cibles.
L'invention permet de réaliser un partage d'immersion dans de nombreuses configurations de systèmes immersifs, en particulier de systèmes d'affichages desdits systèmes immersifs, la figure 3 illustrant des configurations possibles de manière non limitative.
Dans une forme de réalisation le système source et un système immersif cible comportent tous deux un système d'affichage multi-faces. Avantageusement les systèmes immersifs disposent dans ce cas de systèmes de mesure de la position du point d'observation et de la direction d'observation de l'utilisateur ou de l'observateur.
Dans d'autre formes de réalisation, le système source comporte un système d'affichage multi-faces et un système cible comporte un système de visualisation de type casque.
Les systèmes de visualisation de type casque mettent en œuvre des écrans qui sont physiquement très proches des yeux de l'utilisateur du casque mais qui sont pourvus, pour rester utilisables, de systèmes optiques qui assurent une collimation qui place une image virtuelle, ici considérée au sens de l'optique géométrique, de la surface de l'écran à une distance suffisante de l'œil. C'est cette image virtuelle qui est alors considérée comme l'image affichée dans le système de visualisation.
Dans un premier mode de fonctionnement de cette forme de réalisation, l'observateur utilisant le casque est placé dans l'environnement virtuel contenant le système source reconstitué à exactement la même position et à la même orientation que celles de l'utilisateur du système source dans le système source. Dans un mode alternatif, seule l'orientation source autour de l'axe défini par le centre des deux yeux n'est pas prise en compte pour donner un peu plus de liberté à l'observateur. Avantageusement, dans ce mode, l'observateur dans le système cible voit exactement ce que voit l'utilisateur du système source.
Dans un deuxième mode de fonctionnement de cette forme de réalisation, l'observateur utilisant le casque est placé dans l'environnement virtuel contenant le système source reconstitué à exactement la même position que celle de l'utilisateur du système source dans le système source. Avantageusement, dans ce mode, l'observateur dans le système immersif cible peut regarder dans d'autres directions que l'utilisateur du système source.
Dans d'autres formes de réalisation, le système source comporte un système d'affichage de type casque.
Les informations de configuration incluent alors une description de la transformation géométrique inverse de la transformation géométrique associée aux pixels des images destinées à chacun des deux yeux ainsi que le champ de vision associé au casque.
Le système immersif cible reçoit les données d'affichage directement capturées par le système de capture et leur applique la transformation géométrique décrite dans les informations de configuration pour retrouver des images aplanies destinées à l'œil gauche et à l'œil droit sans les déformations optiques souvent nécessaires pour l'affichage dans ce type de système immersif de type casque.
Dans une forme de réalisation associée, le système immersif source est de type casque et le système immersif cible est également de type casque. La transformation réalisée par le système cible consiste alors à placer autour de l'observateur dans le système cible, dans un environnement virtuel, une fenêtre mouvante dans laquelle sont affichés les contenus en provenance du système source, la taille de la fenêtre étant fonction des caractéristiques du système source pour au moins correspondre au champ de vision rendu par ledit système source.
Dans un premier mode de fonctionnement, la fenêtre est affichée tout le temps dans le champ de vision de l'observateur, imposant ainsi que sa position et son orientation dans l'environnement virtuel correspondent exactement à la position et orientation de l'utilisateur du système source dans le système source.
Dans encore un autre mode de fonctionnement, seule la position de l'observateur dans le système cible est contrainte dans l'environnement virtuel. L'observateur peut orienter son regard dans n'importe laquelle des directions, même s'il ne perçoit le contenu visualisé par l'utilisateur du système source que quand les directions de regard de l'un et l'autre sont suffisamment proches. Le système source ne comporte pas nécessairement de système d'affichage source, pour autant les données d'exploitation comportent l'ensemble des données des conditions d'observation associées aux données d'affichages desdites données d'exploitation.
Pour assister l'observateur d'un système immersif cible dans le choix d'une direction d'observation dans un environnement virtuel, et dans la perception visuelle qu'il a de l'environnement virtuel, dont il ne maîtrise pas toutes les conditions de la représentation, des représentations symboliques sont avantageusement superposées à la représentation visuelle de l'environnement virtuel représenté sur le système immersif cible pour apporter à l'observateur une aide à l'orientation et au choix d'une direction d'observation.
Ces représentations symboliques comportent par exemple la matérialisation graphique d'une sphère ou encore d'une grille associée à la représentation de surfaces horizontales, par exemple un sol, et ou verticales, par exemple un mur.
De tels représentations symboliques, qui peuvent n'être matérialisées que temporairement, par exemple par une commande de l'observateur, ou dans certaines conditions, par exemple une évolution rapide des conditions d'observation du système source, apporte une assistance à l'observateur pour faciliter son choix de direction d'observation et pour retrouver sa position dans la scène virtuelle.
De tels éléments graphiques intégrés dans le champ de vision de l'observateur lui montreront dans quelle direction regarder pour retrouver l'image regardée par l'utilisateur du système source, i.e. comment regarder dans la même direction.
Dans une variation de ces modes de réalisation, les données d'affichage des anciennes images affichées dans l'environnement virtuel dudit observateur peuvent mettre du temps à disparaître, permettant alors de superposer dans son champ de vision les contenus actuellement visualisés selon la direction de regard actuelle dudit utilisateur et les contenus antérieurement visualisés selon des directions de regard passées dudit utilisateur. Si ledit observateur ne regarde pas exactement dans la même direction que ledit utilisateur, il pourra ainsi percevoir une portion plus importante de l'environnement virtuel visualisé par ledit utilisateur.
Dans une autre forme de réalisation associée, le système source est de type casque et le système cible est un écran plat traditionnel, éventuellement stéréoscopique. Avantageusement, dans cette forme de réalisation notamment, transformer les données d'affichage venant dudit casque en fonction des données de position et ou orientation venant dudit casque permet de positionner dans l'environnement virtuel du système cible la portion de contenu de l'environnement virtuel visible au travers du système d'affichage du système source de façon stabilisée, atténuant l'impact des mouvements de tête fréquents de l'utilisateur du système source.
Avantageusement, un traitement permettant une telle stabilisation peut être mis en œuvre quels que soient les systèmes sources et cibles utilisés, et a principalement du sens si le système source a des moyens de mesure de l'orientation du point d'observation.
Dans un mode de fonctionnement de cette forme de réalisation, la fenêtre de l'environnement virtuel du système immersif cible dans laquelle est affichée l'image correspondant à la portion d'environnement virtuel source visible est positionnée sur une forme géométrique assimilable à une sphère fixe et invisible centrée sur la tête de l'observateur, sa position à la surface de la sphère étant fonction de la direction de regard de l'utilisateur du système source, ladite fonction pouvant être linéaire ou non. Pour pallier au manque de système de positionnement sur un écran classique, la sphère peut tourner sur elle-même pour accompagner le regard de l'utilisateur du système immersif source quand cet utilisateur regarde dans une direction initialement située hors du champ du système d'affichage cible.
Avantageusement, un tel fonctionnement donne le sentiment aux observateurs du système cible que l'environnement virtuel source est dévoilé au fur et à mesure que l'utilisateur du système source regarde dans des directions différentes, à la manière d'une lampe torche qui n'éclairerait à tout instant que la partie de l'environnement vers laquelle elle est pointée. Par extension aux formes de réalisation ci-dessus, le système immersif source peut aussi être un casque de visualisation de réalité augmentée, auquel cas l'environnement pris en compte par les moyens de capture dudit système source est une combinaison des affichages virtuels et des images de la scène réelle, toutes deux surimposées.
Dans une forme de réalisation, les moyens d'affichage du système immersif source sont virtuels, l'enjeu étant principalement de faire calculer les contenus à afficher sur un système immersif cible par les moyens de traitement numérique du système immersif source sans se soucier d'afficher les informations sur le système d'affichage du système immersif source. Avantageusement, le système immersif source peut utiliser comme position et orientation du calcul des données d'affichage la position et orientation de l'observateur dans le système immersif cible, qui parvient audit système source via les moyens de connexion réseau.
Dans un mode de fonctionnement de cette forme de réalisation, le système source calcule une image adimensionnelle consistant en une projection à 360° de l'environnement virtuel, résultant en une image ou un ensemble d'images qui peut être transformée par le système immersif cible en prenant en compte l'écart entre les conditions d'observation utilisée par le système source et les conditions d'observation effective de l'observateur dans le système immersif cible au moment de l'affichage de l'image.
Dans un autre mode de fonctionnement de cette forme de réalisation, le système source calcule un ensemble de données d'affichage correspondant à la configuration géométrique du système d'affichage du système immersif cible. Les transformations réalisées par le système immersif cible prennent en compte l'écart entre la position utilisée par le système source et la position effective de l'observateur dans le système immersif cible au moment de l'affichage de l'image.
Bien que l'invention ait été exposée de manière détaillée dans le cas de la mise en œuvre de systèmes d'affichage utilisant des écrans rectangulaires, ou carrés, et plats, un système immersif comportant d'autres formes d'écrans peut être mis en œuvre dans le dispositif et dans le procédé tant comme système source que comme système cible.
Par exemple il peut dans un système d'affichage être mis en œuvre un ou des écrans courbes. Dans ce cas, suivant l'invention, sont assurées les transformations nécessaires en prenant en compte les caractéristiques de courbure de la surface sur laquelle est, dans le cas du système source, ou doit être, dans le cas du système cible, affichée une image. L'invention peut, en particulier dans cette situation, adapter une image à une courbure différente entre un écran du système source et un écran du système cible, puisque le système de traitement associé au système cible dispose de toutes les informations géométriques associées au système source pour construire virtuellement exactement le même écran avec les mêmes courbures.
Dans une forme de réalisation, indépendamment du type de système mis en œuvre comme système source, le système d'affichage d'un système immersif cible comporte un écran plat conventionnel unique, ayant le cas échéant des capacités d'affichage en stéréoscopie.
Une telle forme de réalisation permet à plusieurs spectateurs de vivre en immersion sur le système cible une expérience de l'utilisateur en immersion sur le système source. Dans un mode de fonctionnement de cette forme de réalisation, position et orientation d'observation par l'utilisateur du système cible sont présupposés pour qu'ils correspondent à des position et orientation par défaut dans le système cible.
Dans une forme de réalisation alternative sur un modèle proche de la forme de réalisation précédente, le système d'affichage du système cible est un dispositif mobile ou transportable type tablette, smartphone ou ordinateur portable.
Dans un mode de fonctionnement complémentaire applicable aux formes de réalisation précédente, le système d'affichage et ou le système de traitement du système immersif cible et ou du système source sont associés à des équipements, généralement combinant des matériels et des logiciels, mis en œuvre pour interagir avec les représentations visuelles sur le système d'affichage, qui seront regroupés sous l'expression « moyens d'interaction ». Ces moyens d'interaction peuvent être de toutes formes pour autant qu'ils permettent d'influencer, via le système d'affichage et ou le système de traitement, le contenu et ou le comportement des images. Ces moyens d'interaction, comprennent par exemple, de façon non exhaustive, des terminaux avec des capacités tactiles directes ou indirectes, un clavier, un pointeur tel qu'une souris ou une boule de poursuite, des stylos numériques, un dispositif de pointage 3D, un dispositif de pointage gyroscopique, des systèmes de suivi du regard... La fonction de gel des données d'affichage sur le système cible peut alors être activée grâce à ces moyens d'interaction et le ou les observateurs sur le système cible peuvent utiliser les moyens d'interaction dudit système cible pour pointer et ou annoter, avec un texte et ou avec des dessins et ou avec des symboles, à la surface de l'image gelée, puis enregistrer ces images annotées par une interface adaptée.
De telles possibilités d'Interactions, pointages et d'annotations, sont avantageusement implémentées sur chacun des systèmes source et cible de sorte que l'utilisateur sur le système source et l'observateur sur le système immersif cible puissent en utiliser les capacités.
Dans un mode de mise en œuvre, les pointages et annotations réalisés sur un système, cible ou source, sont également transmis par les moyens de communication sous la forme de données numériques à l'autre ou à plusieurs autres systèmes immersifs cibles interconnectés de sorte que les pointages et les annotations, réalisées par un observateur ou par l'utilisateur, peuvent être incrustées dans les représentations visuelles affichées sur chacun des autres systèmes immersifs concernés.
Pour simplifier les systèmes et éviter la mise en œuvre d'un dispositif de mesure de la position de la tête et des yeux d'un utilisateur ou d'un observateur, ces paramètres peuvent être estimés en fonctions de mesures ou d'observations plus ou moins précises, mais suffisantes pour obtenir une reconstruction de l'image de l'environnement immersif acceptable par l'observateur.
Par exemple le système cible peut être un téléphone ordinateur dont l'écran forme le système d'affichage et dont une caméra sur la face avant dudit téléphone ordinateur assure, par une application logicielle dédiée, le suivi de la position de la tête ou des yeux de l'observateur. Dans tous les cas, comme il est compris de la description détaillée d'un mode de réalisation, les paramètres des conditions d'observation source et cibles sont nécessaires à la formulation des transformations des images du système source en images cohérentes sur le système cible. Suivant que l'un ou l'autre des systèmes source ou cible, ou les deux, sont équipés ou non d'un système pour établir les valeurs variables des paramètres relatifs aux conditions d'observation, les valeurs du paramètre sont prises en compte ou à défaut sont prises à des valeurs présupposées fonction des moyens d'affichage et des conditions d'observation.
Par exemple, le système d'affichage du système immersif cible peut être un écran associé à des capacités tactiles comme moyens d'interaction. L'observateur peut alors utiliser ces moyens d'interaction pour modifier les paramètres de position et ou de direction d'observation et ainsi déterminer dynamiquement une position et ou une direction d'observation selon laquelle observer la représentation virtuelle de l'environnement immersif source. Les capacités tactiles peuvent être remplacées par un dispositif de type souris. Le contrôle d'affichage 2D ou 3D par ces moyens d'interaction étant bien connus de l'homme du métier. Les moyens d'interaction du système immersif cible permettent ainsi à l'observateur de contrôler un sous ensemble des conditions d'observation pour le système immersif cible
Avantageusement, selon l'invention, tous les types de systèmes immersifs décrits peuvent être combinés dans un dispositif plus ou moins complexe ne se restreignant pas à un unique couple système source / système cible.
L'invention peut également s'appliquer à différents types d'environnements virtuels. L'environnement virtuel peut être un environnement en trois dimensions.
L'environnement virtuel peut également être un environnement en deux dimensions représenté par des images fixes ou animées stéréoscopiques ou non.
Dans le cas d'images stéréoscopiques, la connaissance de propriétés de l'appareil de prise de vue peut permettre de restituer les proportions correctes pour l'observateur sur le système cible. Ainsi suivant le dispositif et le procédé de l'invention, il est obtenu de reproduire un environnement généré sur un système source dans un ou plusieurs systèmes immersifs cibles sans transmettre nécessairement d'autres informations que celles correspondant aux données de configuration et d'exploitation générées par le système source.
Malgré les différences entre le système immersif cible et le système source, l'environnement perçu par un utilisateur du système source est reproduit de manière cohérente vis à vis d'un observateur du système cible qui bénéficie ainsi de l'expérience d'immersion dans l'environnement virtuel du système source.
Ce résultat est obtenu avec un niveau d'exigence minimal en termes de transmission de données et en termes de coût d'adaptation des systèmes existants.

Claims

REVENDICATIONS
Dispositif (100) de partage d'immersion dans un environnement virtuel, comportant :
- un système source (10), délivrant des données d'exploitation d'une représentation visuelle de l'environnement virtuel, lesdites données d'exploitation comportant des données d'affichage relatives à des images de ladite représentation visuelle et comportant des données des conditions d'observation dans lesquelles la représentation visuelle de l'environnement virtuel a été générée ;
- au moins un système immersif cible (20), comportant un système de traitement numérique (21 ) délivrant des images à au moins un système d'affichage (22) dudit système immersif cible ;
ledit dispositif étant caractérisé en ce qu'il comporte :
- des moyens de transmission (30) des données d'exploitation délivrées par le système source (10) à l'au moins un système immersif cible (20) ;
- des moyens de transformation des données d'affichage, représentatives d'images de la représentation visuelle de l'environnement virtuel délivrées par le système source (10) associée à des données des conditions d'observation, pour construire des images affichées dans le système d'affichage (22) du système immersif cible (20), tels que l'ensemble des images affichées par ledit système d'affichage dudit système immersif cible, est le résultat de traitements en vue de favoriser l'immersion sur ledit système immersif cible (20) dans les données d'affichage lors d'un passage des conditions d'observation transmises par le système source (10) à des conditions d'observation effectives dans le système d'affichage (22) dudit système immersif cible.
Dispositif suivant la revendication 1 dans lequel le système source (10) est un système immersif comportant un système d'affichage source (12) affichant des images des données d'affichage d'une représentation visuelle d'un environnement virtuel généré par ledit système source.
Dispositif suivant la revendication 2, dans lequel la transformation des données d'affichage comporte une reconstitution d'une représentation virtuelle 3D d'un système d'affichage source (12') de l'environnement physique du système d'affichage source (12), une position d'un point d'observation d'un observateur (91 ) dans le système d'affichage (22) du système cible étant forcée, pour la transformation des données d'affichage, à une même position dans ladite représentation virtuelle 3D dudit système d'affichage source que la position d'observation d'un utilisateur (90) dans le système d'affichage source (12).
Dispositif suivant la revendication 2 ou 3, dans lequel le système immersif source (10) comporte un système de mesure en temps réel de la direction d'observation, et ou de la position d'observation, dans le système d'affichage (12) du système immersif source, d'un utilisateur (90) qui serait immergé dans l'environnement virtuel dudit système immersif source, et l'au moins un système immersif cible (20) comporte un système de mesure de la direction d'observation, respectivement et ou de la position d'observation, dans le système d'affichage dudit système immersif cible, d'un observateur (91 ) qui serait immergé dans l'environnement virtuel représenté sur ledit système immersif cible.
Dispositif suivant l'une des revendications précédentes dans lequel la transformation des données d'affichage provenant du système source (10) en fonction des données de position et ou orientation dudit système permet de positionner dans l'environnement virtuel du système immersif cible (20) le contenu de l'environnement virtuel visible au travers du système d'affichage (12) du système source de façon stabilisée.
Dispositif suivant l'une des revendications précédentes, dans lequel un logiciel de traitement partiel de données d'affichage est exécuté sur un système de traitement numérique (11 ) du système source (10), ou sur un calculateur annexe (32b) connecté à un réseau (31 ) par lequel des données sont transmises entre le système source (1 0) et l'au moins un système immersif cible (20), ledit logiciel transformant des données d'affichage délivrées par ledit système source, représentatives d'images de la représentation visuelle de l'environnement virtuel dudit système source, en données d'affichage correspondant à des images adimensionnelles indépendantes d'une structure d'un système de visualisation devant afficher les images, lesdites données d'affichage correspondant à des images adimensionnelles étant transmises à l'au moins un système immersif cible (20).
Dispositif suivant la revendication 6, dans lequel les images adimensionnelles correspondent à des images projetées sur une paroi intérieure d'une sphère, au centre de laquelle sphère est placé un point d'observation du système source (1 0), pour former des images adimensionnelles dans un angle solide correspondant aux images des données d'affichage du système source (1 0), pouvant atteindre jusqu'à quatre Pi stéradians. 8 - Dispositif suivant la revendication 6 ou la revendication 7, dans lequel le logiciel de traitement des données d'affichage pour construire des images affichées par le système d'affichage (22) de l'au moins un système immersif cible (20) est exécuté sur des moyens de calculs (21 ) dudit système immersif cible.
9 - Dispositif suivant l'une des revendications précédentes, dans lequel le système source (1 0) comporte un équipement (14) de capture d'un signal porteur des données d'affichage, généré par le système source (1 0), et qui transmet sous forme de données numériques les dites données d'affichage correspondant au signal capturé, directement ou indirectement, à l'au moins un système immersif cible (20). 10 - Dispositif suivant l'une des revendications 1 à 9, dans lequel le système source (10) comporte un logiciel, exécuté sur un système de traitement numérique (11 ), de capture de contenus des données d'affichage dudit système source, après que les données d'affichage ont été calculées, et qui transmet sous forme de données numériques lesdits contenus des données d'affichage capturés, directement ou indirectement, à l'au moins un système immersif cible (20).
11 - Dispositif suivant l'une des revendications précédentes, comportant un système d'enregistrement des données configuré pour enregistrer les données d'exploitation générées par le système source (10) et pour transmettre lesdites données d'exploitation à au moins un système immersif cible (20) en temps différé. 12 - Dispositif suivant l'une des revendications précédentes dans lequel :
- le système source (10) comporte également un logiciel de traitement d'image et un système d'affichage source (12) ;
- au moins un système immersif cible (20) comporte également un logiciel de calcul d'images de synthèse de construction d'une représentation visuelle d'un environnement virtuel sous la forme d'images affichées sur un ou des écrans (22a) du système d'affichage (22) dudit système immersif cible, et comporte un équipement et ou un logiciel de capture des données d'affichage correspondant aux images affichées sur le système d'affichage dudit système immersif cible,
de sorte que chacun desdits systèmes immersifs peut être alternativement un système source et un système cible.
13 - Dispositif suivant l'une des revendications précédentes dans lequel un système d'affichage et un système de traitement numérique d'au moins un système immersif cible (20) et ou du système source (10) sont associés à des moyens d'interaction configurés pour modifier, via le système d'affichage et ou le système de traitement du système immersif cible ou du système source considéré, le contenu et ou le comportement des images affichées par le système d'affichage dudit système source ou du système immersif cible considéré. - Dispositif suivant la revendication 13, dans lequel les moyens d'interactions comportent une commande de gel pour sélectivement activer, et désactiver, le gel de toute ou partie des données d'affichage et ou des données des conditions d'observation utilisées pour calculer les images devant être affichées par le système d'affichage du système source et ou du système immersif cible. - Dispositif suivant la revendication 14 dans lequel les moyens d'interactions du système immersif cible (20) comportent une commande de gel d'un sous-ensemble des conditions d'observation dans le système d'affichage du système source (10) et ou dans le système d'affichage du système immersif cible (20). - Dispositif suivant l'une des revendications 13 à 15 dans lequel les moyens d'interaction d'au moins un système immersif cible (20) sont en outre configurés pour pointer et ou annoter les images affichées par le système d'affichage dudit système immersif cible. - Dispositif suivant la revendication 16 dans lequel des données caractérisant les pointages ou annotations formées sur des images du système immersif cible (20) sont transmises via des moyens de transmission au système source (10) et ou à au moins un autre système immersif connecté. - Dispositif suivant l'une des revendications 13 à 17, dans lequel les moyens d'interaction comportent une ou des surfaces sensibles au toucher ou à la présence d'une main ou d'un doigt, et ou un ou des pointeurs. - Dispositif suivant l'une des revendications précédentes dans lequel un système d'affichage (12) du système source (10), et le système d'affichage (22) de l'au moins un système immersif cible (20), appartiennent chacun à l'une des catégories mettant en œuvre des écrans plats et ou des écrans courbes, parmi : les systèmes d'affichage multi-faces ; les casques de visualisation à réalité virtuelle, ou à réalité augmentée, ou mixtes ; les systèmes d'affichage multi-écrans ; les écrans ; les écrans portés par un utilisateur ou un observateur.
20 - Dispositif suivant l'une des revendications précédentes, dans lequel au moins un système immersif cible (20) est situé dans un emplacement distant du système source (10), la séparation physique des deux systèmes étant telle d'un l'utilisateur (90) dudit système source et un observateur (91 ) dudit système immersif cible ne sont pas en mesure de communiquer sans faire usage de moyens techniques de communication.
21 - Dispositif suivant l'une des revendications précédentes dans lequel au moins un système immersif cible (20) est situé à une proximité du système source (10), la séparation physique étant telle qu'un utilisateur (90) dudit système source et un observateur (91 ) dudit système immersif cible (20) peuvent communiquer directement sans barrière physique. 22 - Procédé (200) de partage d'immersion dans un environnement virtuel d'un observateur (91 ) dans un système immersif cible (20), comportant les étapes de :
- génération (230), indépendamment du système immersif cible (20), de données d'exploitation d'une représentation visuelle de l'environnement virtuel, lesdites données d'exploitation comportant des données d'affichage relatives à des images de ladite représentation visuelle et comportant des données de conditions d'observation associées auxdites données d'affichage ;
- affichage (250) sur un système d'affichage (22) du système immersif cible (20) d'images représentant l'environnement virtuel ;
caractérisé en ce que ledit procédé comporte, pour chaque image ou ensemble d'images devant être affiché, entre l'étape de génération (230) et l'étape d'affichage (250), une étape de transformation (240), réalisée au moins pour partie sur le système immersif cible (20), des données d'affichage de l'environnement virtuel générées à l'étape de génération (230), ladite étape de transformation comportant de déterminer des conditions d'observation effective par l'opérateur (91 ) dans le système d'affichage (22) dudit système immersif cible et de transformer les données d'affichage associées aux conditions d'observation de l'étape de génération (230) des données d'affichage, en données d'affichage correspondant auxdites conditions d'observation effective par l'observateur (91 ).
23 - Procédé suivant la revendication 22 dans lequel chaque point image d'une image transformée, à l'étape de transformation (240) pour être affichée par le système d'affichage (22) du système immersif cible, est déterminé en fonction d'au moins un point d'observation effectif dans le système d'affichage (22) du système immersif cible pour conserver, à un facteur de proportionnalité près constant pour toute l'image à un instant donné, une même direction relative d'observation par rapport à un autre point image quelconque de ladite image transformée, observée depuis ledit point d'observation effectif, que la direction relative entre lesdits points image dans les données d'affichage de la représentation visuelle de l'environnement virtuel générées à l'étape de génération (230) délivrées par le système source (10) et comportant les données image et les données de conditions d'observation associées auxdites données images. 24 - Procédé suivant la revendication 22 ou la revendication 23 dans lequel l'étape de génération (230) des données d'affichage de la représentation de l'environnement virtuel est réalisé sur un système source (10), lequel système source est : un système de génération d'images pour un affichage virtuel, un système de diffusion d'un flux d'images, réelles et ou virtuelles, générées en temps réel ou enregistrées, un système immersif dans lequel est immergé un utilisateur (90).
25 - Procédé suivant la revendication 24, dans lequel l'étape de transformation (240) comporte une reconstitution d'une représentation virtuelle 3D du système d'affichage source (12') d'un environnement physique d'un système d'affichage source (12) du système source. 26 - Procédé suivant l'une des revendications 22 à 25, dans lequel l'étape de transformation (240) des données d'affichage est réalisée totalement sur le système immersif cible (20) après une étape de transmission des données d'affichage de la représentation de l'environnement virtuel audit système immersif cible, générées à l'étape de génération (230).
27 - Procédé suivant l'une des revendications 22 à 25, dans lequel l'étape de génération (230) comporte une étape de transformation partielle des données d'affichage, avant une étape de transmission des données d'affichage partiellement transformée au système immersif cible (20), dans laquelle étape de transformation partielle les données d'affichage sont transformées sans dépendre de données variables des conditions d'affichage dans le système immersif cible (20).
28 - Procédé suivant l'une des revendications 22 à 27, dans lequel l'étape de transformation (240) comporte une étape (241 ) de gel de données d'affichage de la représentation de l'environnement virtuel ou de gel des conditions d'observations, générées à l'étape de génération (230).
29 - Procédé suivant la revendication 28 dans lequel les données des conditions d'observation dans le système d'affichage (22) du système immersif cible continuent d'être prises en compte lors de l'étape (241 ) de gel de données d'affichage ou de gel des conditions d'observation.
30 - Procédé suivant l'une des revendications 22 à 29, comportant une étape (220) d'initialisation dans laquelle le système immersif cible (20) initialise un registre comprenant des données sur des conditions dans lesquelles les données d'affichage sont générée à l'étape de génération (230).
EP17725317.6A 2016-04-27 2017-04-27 Dispositif et procede de partage d'immersion dans un environnement virtuel Pending EP3449340A1 (fr)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR1653758A FR3050834B1 (fr) 2016-04-27 2016-04-27 Dispositif et procede de partage d'immersion dans un environnement virtuel
FR1659160A FR3056770B1 (fr) 2016-09-28 2016-09-28 Dispositif et procede de partage d'immersion dans un environnement virtuel
FR1659768A FR3057430B1 (fr) 2016-10-10 2016-10-10 Dispositif d'immersion dans une representation d'un environnement resultant d'un ensemble d'images
PCT/FR2017/051004 WO2017187095A1 (fr) 2016-04-27 2017-04-27 Dispositif et procede de partage d'immersion dans un environnement virtuel

Publications (1)

Publication Number Publication Date
EP3449340A1 true EP3449340A1 (fr) 2019-03-06

Family

ID=58765863

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17725317.6A Pending EP3449340A1 (fr) 2016-04-27 2017-04-27 Dispositif et procede de partage d'immersion dans un environnement virtuel

Country Status (5)

Country Link
US (1) US11727645B2 (fr)
EP (1) EP3449340A1 (fr)
CA (1) CA3022298A1 (fr)
SG (1) SG11201810432YA (fr)
WO (1) WO2017187095A1 (fr)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102336997B1 (ko) * 2017-08-16 2021-12-08 삼성전자 주식회사 서버, 디스플레이장치 및 그 제어방법
EP3942401A1 (fr) 2019-06-20 2022-01-26 Dirtt Environmental Solutions Ltd. Système de communication vocale dans un environnement de réalité mixte
FR3102592B1 (fr) * 2019-10-29 2022-02-11 Immersion Procédé d’interaction avec un utilisateur d’un système immersif et dispositif pour la mise en œuvre d’un tel procédé
WO2021190280A1 (fr) * 2020-03-24 2021-09-30 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Système et procédé de télé-coopération augmentée

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2011258272B2 (en) * 2010-05-25 2015-03-26 Vidyo, Inc. Systems and methods for scalable video communication using multiple cameras and multiple monitors
US20120162384A1 (en) * 2010-12-22 2012-06-28 Vesely Michael A Three-Dimensional Collaboration
US9015245B1 (en) * 2011-07-20 2015-04-21 Google Inc. Experience sharing with commenting
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
RU2621633C2 (ru) * 2011-10-28 2017-06-06 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
IL298018B2 (en) * 2013-03-11 2024-04-01 Magic Leap Inc System and method for augmentation and virtual reality
JP2015095802A (ja) * 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US20160005209A1 (en) * 2014-07-07 2016-01-07 Karlsruher Institut für Technologie Method and system for light transport path manipulation
US20160027218A1 (en) * 2014-07-25 2016-01-28 Tom Salter Multi-user gaze projection using head mounted display devices
US20160133230A1 (en) * 2014-11-11 2016-05-12 Bent Image Lab, Llc Real-time shared augmented reality experience
US9516255B2 (en) * 2015-01-21 2016-12-06 Microsoft Technology Licensing, Llc Communication system
EP3281403A4 (fr) * 2015-04-06 2018-03-07 Scope Technologies US Inc. Procédés et appareils pour des applications de réalité augmentée
US10380800B2 (en) * 2016-04-18 2019-08-13 Disney Enterprises, Inc. System and method for linking and interacting between augmented reality and virtual reality environments

Also Published As

Publication number Publication date
US20190139313A1 (en) 2019-05-09
WO2017187095A1 (fr) 2017-11-02
US11727645B2 (en) 2023-08-15
SG11201810432YA (en) 2018-12-28
CA3022298A1 (fr) 2017-11-02

Similar Documents

Publication Publication Date Title
US11838518B2 (en) Reprojecting holographic video to enhance streaming bandwidth/quality
US10527846B2 (en) Image processing for head mounted display devices
US8928659B2 (en) Telepresence systems with viewer perspective adjustment
US12026833B2 (en) Few-shot synthesis of talking heads
CN105264478A (zh) 全息锚定和动态定位
WO2017187095A1 (fr) Dispositif et procede de partage d'immersion dans un environnement virtuel
CN107810634A (zh) 用于立体增强现实的显示器
TWI813098B (zh) 用於新穎視圖合成之神經混合
CN115413353A (zh) 扩展现实记录仪
CN111699460A (zh) 多视图虚拟现实用户界面
FR3056770A1 (fr) Dispositif et procede de partage d'immersion dans un environnement virtuel
JP7426413B2 (ja) ブレンドモード3次元ディスプレイシステムおよび方法
BE1022580A9 (fr) Méthode d'obtention de vidéos immersives avec parallaxe interactive et méthode de visualisation de vidéos immersives avec parallaxe interactive
EP2987319A1 (fr) Procede de generation d'un flux video de sortie a partir d'un flux video large champ
FR3066304A1 (fr) Procede de compositon d'une image d'un utilisateur immerge dans une scene virtuelle, dispositif, equipement terminal, systeme de realite virtuelle et programme d'ordinateur associes
FR3050834A1 (fr) Dispositif et procede de partage d'immersion dans un environnement virtuel
Barabas Holographic television: measuring visual performance with holographic and other 3D television technologies
FR3057430A1 (fr) Dispositif d'immersion dans une representation d'un environnement resultant d'un ensemble d'images
Nocent et al. 3d displays and tracking devices for your browser: A plugin-free approach relying on web standards
US20220232201A1 (en) Image generation system and method
Hristov Research of Modern Technologies and Approaches for the Development of a Web-Based Information System for Visualization of Three-Dimensional Models...
CN116848507A (zh) 应用程序投屏

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20181126

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)