FR3030843A1 - METHOD FOR PROJECTING IMAGES ON A THREE-DIMENSIONAL HYBRID SCENE - Google Patents

METHOD FOR PROJECTING IMAGES ON A THREE-DIMENSIONAL HYBRID SCENE Download PDF

Info

Publication number
FR3030843A1
FR3030843A1 FR1403001A FR1403001A FR3030843A1 FR 3030843 A1 FR3030843 A1 FR 3030843A1 FR 1403001 A FR1403001 A FR 1403001A FR 1403001 A FR1403001 A FR 1403001A FR 3030843 A1 FR3030843 A1 FR 3030843A1
Authority
FR
France
Prior art keywords
projection
scene
image
planes
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1403001A
Other languages
French (fr)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Catopsys
Original Assignee
Catopsys
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Catopsys filed Critical Catopsys
Priority to FR1403001A priority Critical patent/FR3030843A1/en
Publication of FR3030843A1 publication Critical patent/FR3030843A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

Procédé de projection d'images sur une scène tridimensionnelle comprenant une pluralité de plans de projection, au moins un écran et au moins une unité de projection, comportant les étapes consistant à : - obtenir (70) au moins une image d'entrée destinée à être projetée dans la scène tridimensionnelle ; - transposer (71) l'image d'entrée en « cubemap » ; - obtenir (72) les coordonnées 3D des plans de projection d'une scène tridimensionnelle prévue pour projection des images d'entrée ; - obtenir (73) les caractéristiques de projection des unités de projection ; - générer (74) une scène virtuelle ; - générer (75) une image de paramétrage pour projection dans la scène virtuelle ; - pour chaque unité de projection, effectuer (76) une mise en correspondance ; - pour chaque unité de projection, générer (77) une matrice de transformation basée sur cette mise en correspondance ; - transformer (78) la ou les images à projeter sur la scène tridimensionnelle avec la ou les matrices correspondantes ; - projeter (79) la ou les images.A method of projecting images on a three-dimensional scene comprising a plurality of projection planes, at least one screen and at least one projection unit, comprising the steps of: - obtaining (70) at least one input image for to be projected in the three-dimensional scene; - transpose (71) the input image into "cubemap"; obtaining (72) the 3D coordinates of the projection planes of a three-dimensional scene intended for projection of the input images; obtaining (73) the projection characteristics of the projection units; generating (74) a virtual scene; generating (75) a parameterization image for projection in the virtual scene; - for each projection unit, perform (76) mapping; for each projection unit, generating (77) a transformation matrix based on this mapping; transforming (78) the image or images to be projected on the three-dimensional scene with the corresponding matrix or matrices; projecting (79) the image or images.

Description

PROCÉDÉ DE PROJECTION D'IMAGES SUR UNE SCÈNE TRIDIMENSIONNELLE HYBRIDE DOMAINE TECHNIQUE DE L'INVENTION [0001]La présente invention concerne un procédé de projection d'images adapté pour une scène tridimensionnelle pourvue d'une pluralité de plans de projection 10 dont au moins un prévoit un écran. Elle concerne également un système de projection correspondant. ETAT DE LA TECHNIQUE ANTERIEURE 15 (0002] Les projecteurs de types connus permettent de projeter des images sur un plan unique de projection, c'est-à-dire un plan où l'ensemble des points se situe sensiblement dans un même plan. Lors d'une projection dans une grande pièce, avec au moins un grand plan de projection, l'obtention d'une image projetée de 20 grande surface est aisément possible. [0003]Lorsque la pièce de projection est plus petite, et/ou qu'aucun plan ne correspond à la surface de projection souhaitée, le projection d'une image trop grande donne lieu à des distorsions d'image dans chacune des zones où le plan 25 de projection diffère du plan principal. (0004] Pour des applications visant à créer une immersion des utilisateurs dans un univers de projection sur plusieurs plans, on connaît des solutions utilisant une pluralité de projecteurs, chacun d'entre eux étant prévu pour projeter une image 30 spécifique sur une plan de projection qui lui est propre. Ce type de solution est très coûteux à mettre en oeuvre, notamment du fait de l'utilisation de plusieurs projecteurs, ces derniers étant relativement coûteux. Cat_hybride-FR [0005]La demande de brevet FR2919934 propose un dispositif de projection panoramique permettant de projeter une image mère sur une scène comportant plusieurs faces. Le système et le procédé prévoient à cet effet une transmission de l'image par l'entremise d'un miroir hémisphérique permettant de réfléchir les rayons du projecteur dans différentes directions, sur les différents points de projection. Un exemple d'un tel système est illustré à la figure 1 de la présente demande. La disposition du miroir, par exemple au centre de la scène, permet d'organiser la réflexion des rayons lumineux dans toutes les directions souhaitées.TECHNICAL FIELD OF THE INVENTION [0001] The present invention relates to an image projection method adapted for a three-dimensional scene provided with a plurality of projection planes 10 of which at least one provides a screen. It also relates to a corresponding projection system. STATE OF THE PRIOR ART (0002) Projectors of known types make it possible to project images on a single plane of projection, that is to say a plane where all the points are situated substantially in the same plane. of projection into a large room, with at least one large projection plane, obtaining a projected large-area image is readily possible. [0003] When the projection piece is smaller, and / or no plane corresponds to the desired projection area, projection of an image too large gives rise to image distortions in each of the areas where the projection plane differs from the main plane. (0004) For applications aimed at To create a user immersion in a multi-plane projection universe, solutions are known using a plurality of projectors, each of which is provided to project a specific image onto a projection plane of its own. The type of solution is very expensive to implement, particularly because of the use of several projectors, the latter being relatively expensive. Cat_hybride-FR [0005] The patent application FR2919934 proposes a panoramic projection device for projecting a mother image on a scene having several faces. The system and method provide for this purpose a transmission of the image through a hemispherical mirror to reflect the projector's rays in different directions on the different projection points. An example of such a system is illustrated in Figure 1 of the present application. The arrangement of the mirror, for example in the center of the scene, makes it possible to organize the reflection of the light rays in all the desired directions.

Cette approche donne de bons résultats dans certaines configurations où l'on recherche par exemple à projeter sur une scène de plus de 180 degrés, et plus particulièrement avec une scène occupant jusqu'à 360 degrés. Par contre, le système est relativement complexe et coûteux et implique une phase d'installation longue et fastidieuse. Ce type de système est donc avant tout susceptible d'intéresser les utilisateurs professionnels. [0006]II existe donc un besoin pour un procédé et système plus simple d'utilisation, plus facile à installer, et qui soit à la portée des utilisateurs non spécialistes. [0007]Pour pallier ces différents inconvénients, l'invention prévoit différents moyens techniques.This approach gives good results in certain configurations where one seeks for example to project on a scene of more than 180 degrees, and more particularly with a scene occupying up to 360 degrees. On the other hand, the system is relatively complex and expensive and involves a long and tedious installation phase. This type of system is therefore primarily likely to interest business users. There is therefore a need for a method and system easier to use, easier to install, and is within the reach of non-specialist users. To overcome these disadvantages, the invention provides different technical means.

EXPOSE DE L'INVENTION [0008] Tout d'abord, un premier objet de l'invention consiste à prévoir un procédé de projection d'images sur une scène comportant une pluralité de plans distincts dont au moins un comprend un écran. [0009]Un autre objet de l'invention consiste à prévoir un procédé de projection d'images sur des scènes complexes qui soit simple et rapide à mettre en oeuvre. Cat_hybride-FR - 3 - [0010]Encore un autre objet de l'invention consiste à prévoir un procédé de projection d'images sur des scènes complexes impliquant plusieurs types moyens de visualisation qui soit à la portée d'utilisateurs non spécialisés. [0011]Un autre objet de l'invention consiste à prévoir un système de projection permettant de projeter des images sur une scène complexe impliquant plusieurs types moyens de visualisation, quelle que soit la pièce où l'utilisateur se trouve. [0012]Un autre objet de l'invention consiste à prévoir un système de projection 10 permettant de projeter des images sur une scène complexe impliquant plusieurs types moyens de visualisation, avec un système simple, peu coûteux, facile à installer et à utiliser. [0013]Pour ce faire, l'invention prévoit un procédé comprenant les étapes 15 consistant à: - obtenir au moins une image d'entrée destinée à être projetée dans la scène tridimensionnelle ; - transposer l'image d'entrée en « cubemap »; - obtenir les coordonnées 3D des plans de projection d'une scène 20 tridimensionnelle prévue pour projection des images d'entrée ; - obtenir les coordonnées d'au moins un écran disposé dans un des plans de projection de la scène tridimensionnelle ; - obtenir les caractéristiques de projection des unités de projection ; - sur la base des coordonnées 3D reçues des plans de projection, des 25 coordonnées des écrans et des caractéristiques de projection, générer une scène virtuelle permettant l'affichage sur un écran de configuration de la scène avec les plans de projection et les écrans; - générer une image de paramétrage (par exemple un « shader » ou un mesh ») pour projection dans la scène virtuelle ; 30 - pour chaque unité de projection, effectuer une mise en correspondance entre chaque pixel de l'unité de projection et chaque point des plans de projection de la scène virtuelle ; Cat_hybride-FR -4- - effectuer une mise en correspondance entre chaque pixel des écrans et chaque point des plans de projection de la scène virtuelle ; - pour chaque unité de projection, générer une matrice de transformation basée sur cette mise en correspondance permettant de prendre en compte les spécificités spatiales et géométriques de chacun des plans de projection ; - transformer la ou les images à projeter sur la scène tridimensionnelle avec la ou les matrices correspondantes ; - projeter la ou les images sur les plans de la scène complexe réelle et afficher la zone correspondante de l'image par l'entremise d'au moins un écran. [0014]Un tel procédé permet de projeter des images sur une scène hybride (c'est-à-dire avec zones de projection par projecteur et au moins un écran se substituant au moins partiellement à une zone de projection par projecteur tout en conservant une continuité sensiblement uniforme entre les deux modes d'affichage.SUMMARY OF THE INVENTION [0008] Firstly, a first object of the invention consists in providing a method of projecting images on a scene comprising a plurality of distinct planes of which at least one comprises a screen. Another object of the invention is to provide a method for projecting images on complex scenes that is simple and quick to implement. Cat_hybride-EN - 3 - [0010] Yet another object of the invention is to provide a method for projecting images on complex scenes involving several types of visualization that is within the reach of non-specialized users. Another object of the invention is to provide a projection system for projecting images on a complex scene involving several types of viewing means, whatever the room where the user is. Another object of the invention is to provide a projection system 10 for projecting images on a complex scene involving several types of visualization, with a simple system, inexpensive, easy to install and use. To do this, the invention provides a method comprising the steps of: - obtaining at least one input image intended to be projected in the three-dimensional scene; - transpose the input image into cubemap; obtain the 3D coordinates of the projection planes of a three-dimensional scene intended for projection of the input images; - Get the coordinates of at least one screen disposed in one of the projection planes of the three-dimensional scene; - obtain the projection characteristics of the projection units; based on the received 3D coordinates of the projection planes, screen coordinates and projection characteristics, generating a virtual scene for displaying on a scene configuration screen with projection planes and screens; generating a parameter image (for example a "shader" or a mesh) for projection into the virtual scene; For each projection unit, mapping between each pixel of the projection unit and each point of the projection planes of the virtual scene; Cat_hybride-EN -4- - make a mapping between each pixel of the screens and each point of the projection planes of the virtual scene; for each projection unit, generating a transformation matrix based on this mapping to take into account the spatial and geometrical specificities of each of the projection planes; transforming the image or images to be projected onto the three-dimensional scene with the corresponding matrix or matrices; projecting the one or more images on the shots of the real complex scene and displaying the corresponding zone of the image by means of at least one screen. Such a method makes it possible to project images on a hybrid scene (that is to say with projector projection zones and at least one screen at least partially replacing a projection projection zone while retaining a substantially uniform continuity between the two display modes.

L'utilisateur voit bien la même image, même si celle-ci est partiellement affichée à partir de deux supports différents, préférentiellement un projecteur et un écran. [0015]Un tel procédé permet également de réaliser des projections de façon simple, dans une panoplie de configuration scéniques complexes, permettant ainsi d'effectuer des projections dans pratiquement toute pièce, même si les murs forment une géométrie complexe. Le procédé fonctionne avec un ou plusieurs projecteurs. Aucun miroir n'est requis pour la mise en oeuvre, rendant l'installation simple et rapide, et à la portée des utilisateurs non spécialisés. [0016]De manière avantageuse, la matrice de transformation est basée sur les coordonnées 3D des plans de projection de la scène de projection, et avantageusement sur les caractéristiques de projection de l'unité de projection. [0017]Selon un mode de réalisation avantageux, l'étape de mise en 30 correspondance comporte une phase de prise en compte de la position et de l'orientation de l'utilisateur. Cat_hybride-FR - 5 - [0018]L'image d'entrée est de préférence fournie par une application comprenant des contenus en 3D. [0019]Les caractéristiques de projection comprennent par exemple le nombre, le type, les positions et angles de projection de chacune des unités de projection. [0020]Selon un mode de réalisation avantageux, un des écrans est monté mobile dans la scène. [0021]De manière avantageuse, l'étape de mise en correspondance comporte une phase de prise en compte de la position et de l'orientation des écrans mobiles. [0022]L'invention prévoit également un système de projection d'images sur une 15 scène tridimensionnelle complexe comprenant une pluralité de plans de projection distincts comprenant : - au moins une unité de projection ; - -au moins un écran, prévu pour disposition sur un des plans de projection ; - un ensemble modulaire de projection en immersion comprenant : 20 - un module de mise en correspondance entre les pixels des images d'entrée et les points de projection répartis sur une pluralité de plans de projection d'une scène tridimensionnelle complexe, conçu pour effectuer une mise en correspondance entre chaque pixel de l'unité de projection et chaque point des plans de projection de la scène de projection et entre chaque pixel de l'écran et 25 chaque point du plan de projection sur lequel l'écran est disposé, et générer une matrice de transformation pour chacun des moyens de projection ou écran, basée sur cette mise en correspondance ; - un module de gestion d'images, conçu pour obtenir une pluralité d'images d'entrée destinées à être projetées dans la scène tridimensionnelle complexe et 30 appliquer les matrices de transformation sur les images d'entrée ; - un module (17) de gestion d'écrans conçu pour transmettre aux écrans les données d'affichage ; Cat_hybride-FR -6- - la ou les unités de projection permettant d'effectuer la projection des images transformées sur les plans de projection de la scène tridimensionnelle complexe. [0023]Une telle architecture permet de réaliser un système de projection relativement peu coûteux, peu encombrant et donc très facile à transporter, facile à installer et à utiliser. La lentille est avantageusement adaptée pour une projection à grand angle, par exemple jusqu'à sensiblement 180 degrés. Le système fonctionne de façon autonome, sans miroir (externe au projecteur). [0024] De manière avantageuse, le système de projection d'images comprend par ailleurs un module de gestion de scène, conçu pour générer une scène virtuelle permettant l'affichage sur un écran de configuration de la scène tridimensionnelle complexe avec les plans de projection, générer un « shader » ou « mesh » pour projection dans la scène virtuelle et mettre à disposition de l'utilisateur un module d'ajustement, conçu pour ajuster la mise en correspondance entre les pixels projetés et les plans de projection de la scène tridimensionnelle complexe. [0025]De manière avantageuse, l'unité de projection comprend par ailleurs au moins un modulateur spatial de lumière et une lentille de projection à sensiblement grand angle, préférentiellement une lentille de type « fisheye ». [0026]De manière avantageuse, le système de projection comprend par ailleurs un ensemble de « tracking », permettant d'obtenir les coordonnées spatiales de position du ou des écrans. [0027]L'ensemble de tracking comporte de préférence au moins un capteur de position de l'objet mobile. Cat_hybride-FR 30 DESCRIPTION DES FIGURES [0028]Tous les détails de réalisation sont donnés dans la description qui suit, complétée par les figures 1 à 11, présentées uniquement à des fins d'exemples non limitatifs, et dans lesquelles : - la figure 1 est une représentation schématique illustrant un système de projection panoramique selon l'art antérieur; - la figure 2 est une représentation schématique illustrant un système de projection d'images sur une scène complexe à plans multiples selon l'invention; - les figures 3 et 4 sont des représentations schématiques illustrant des exemples de types de scènes complexes avec 4 plans distincts à la figure 3 et 5 plans distincts à la figure 4; - la figure 5 montre un organigramme fonctionnel présentant les phases principales du procédé de projection d'images selon l'invention ; - les figures 6 et 7 représentent schématiquement l'image destinée à être projetée après mise en forme en « cubemap » (figure 6), la « cubemap » étant présentée en format déplié à la figure 7; - les figures 8A et 8B montrent des exemples d'affichages d'une scène viruelle (figure 8A) et d'une matrice de transformation correspondante (figure 8B) ; - la figure 9 montre un organigramme fonctionnel présentant les étapes détaillées du procédé de projection d'images selon l'invention ; - la figure 10 est une représentation schématique d'un ensemble modulaire de projection en immersion ; - les figures 11A et 11B sont des représentations schématiques d'exemples de projecteurs intégrant un ensemble modulaire de projection en immersion.The user sees the same image, even if it is partially displayed from two different media, preferably a projector and a screen. Such a method also allows projections in a simple way, in a panoply of complex scenic configurations, allowing to perform projections in virtually any room, even if the walls form a complex geometry. The method works with one or more projectors. No mirrors are required for implementation, making installation simple and fast, and within the reach of unskilled users. [0016] Advantageously, the transformation matrix is based on the 3D coordinates of the projection planes of the projection scene, and advantageously on the projection characteristics of the projection unit. According to an advantageous embodiment, the matching step comprises a phase of taking into account the position and the orientation of the user. Cat_hybride-EN - 5 - [0018] The input image is preferably provided by an application comprising 3D contents. The projection characteristics include for example the number, type, positions and projection angles of each of the projection units. According to an advantageous embodiment, one of the screens is movably mounted in the scene. Advantageously, the matching step includes a phase of taking into account the position and orientation of the movable screens. [0022] The invention also provides an image projection system on a complex three-dimensional scene comprising a plurality of separate projection planes comprising: - at least one projection unit; at least one screen, provided for layout on one of the projection planes; a modular immersion projection assembly comprising: a mapping module between the pixels of the input images and the projection points distributed over a plurality of projection planes of a complex three-dimensional scene, designed to perform a mapping between each pixel of the projection unit and each point of the projection planes of the projection scene and between each pixel of the screen and each point of the projection plane on which the screen is disposed, and generating a transformation matrix for each of the projection or screen means, based on this mapping; an image management module, designed to obtain a plurality of input images intended to be projected in the complex three-dimensional scene and to apply the transformation matrices to the input images; a screen management module (17) designed to transmit the display data to the screens; Cat_hybride-EN -6- - the projection unit or units for projecting the transformed images onto the projection planes of the complex three-dimensional scene. Such an architecture allows for a projection system relatively inexpensive, compact and therefore very easy to transport, easy to install and use. The lens is advantageously suitable for wide-angle projection, for example up to substantially 180 degrees. The system operates autonomously, without a mirror (external to the projector). Advantageously, the image projection system further comprises a scene management module, designed to generate a virtual scene for displaying on a configuration screen of the complex three-dimensional scene with the projection planes, generating a "shader" or "mesh" for projection in the virtual scene and providing the user with an adjustment module, designed to adjust the mapping between the projected pixels and the projection planes of the complex three-dimensional scene . Advantageously, the projection unit further comprises at least one spatial light modulator and a substantially wide-angle projection lens, preferably a "fisheye" type lens. Advantageously, the projection system further comprises a set of "tracking", to obtain the spatial position coordinates of the screen or screens. The tracking assembly preferably comprises at least one position sensor of the moving object. Cat_hybride-EN 30 DESCRIPTION OF THE FIGURES [0028] All the details of embodiment are given in the description which follows, supplemented by FIGS. 1 to 11, presented solely for purposes of non-limiting examples, and in which: FIG. 1 is a schematic representation illustrating a panoramic projection system according to the prior art; FIG. 2 is a schematic representation illustrating an image projection system on a complex multi-plane scene according to the invention; FIGS. 3 and 4 are schematic representations illustrating examples of complex scene types with 4 distinct planes in FIG. 3 and 5 distinct planes in FIG. 4; FIG. 5 shows a functional flow diagram showing the main phases of the image projection method according to the invention; - Figures 6 and 7 schematically represent the image to be projected after formatting in "cubemap" (Figure 6), the "cubemap" being presented in unfolded format in Figure 7; FIGS. 8A and 8B show examples of displays of a viral scene (FIG. 8A) and of a corresponding transformation matrix (FIG. 8B); FIG. 9 shows a functional flow chart showing the detailed steps of the image projection method according to the invention; FIG. 10 is a diagrammatic representation of a modular immersion projection assembly; FIGS. 11A and 11B are diagrammatic representations of exemplary projectors incorporating a modular immersion projection assembly.

Cat_hybride-FR -8 DESCRIPTION DETAILLEE DE L'INVENTION [0029]Par « scène tridimensionnelle complexe », on entend une scène comportant une pluralité de plans distincts, la distinction provenant soit de l'angle entre les plans, leurs positions relatives, leur orientation, ou plusieurs de ces facteurs simultanément. (0030] Par « plans distincts » on entend des surfaces sensiblement planes, jointes 10 ou non, disposées selon des orientations et/ou positions différentes pour au moins deux des plans. [0031]La figure 2 illustre un exemple de mise en oeuvre de l'invention dans laquelle un projecteur 20 permet de projeter une image ou une succession 15 d'images sur une scène tridimensionnelle complexe 30. Dans cet exemple, la scène tridimensionnelle complexe 30 comprend un plan de projection 31 face au projecteur 20, un second plan de projection 32 orienté perpendiculairement au plan 31. Dans cet exemple, pour qu'une image puisse être projetée sans distorsion, celle-ci doit être adéquatement traitée pour que la zone de projection 20 correspondant au plan latéral 32 soit projetée de façon à prendre en compte les spécificités de ce plan. La scène montre par ailleurs un écran 33 posé contre un de plans de projection. [0032]Les figures 3 et 4 montrent de façon schématique d'autres exemples de 25 configurations de scènes complexes susceptibles d'être mises en oeuvre dans le cadre de la présente invention. L'exemple de la figure 3 prend en compte quatre plans distincts comprenant un plan face au projecteur 31, deux plans latéraux opposés 32 et 33 ainsi qu'un plan inférieur 34 correspondant au sol. L'exemple de la figure 4 est similaire à celui de la figure 3, avec un plan supplémentaire 35 pour 30 le plafond. Cat_hybride-FR - 9 - [0033]La figure 5 présente un organigramme fonctionnel illustrant sommairement les principales phases du procédé selon l'invention. Ce procédé est ensuite décrit plus en détails avec les figures 6 à 9. Le procédé permet d'utiliser une image source en provenance d'une application dans laquelle de telles images sont générées ou tout au moins mises à disposition (étape 44). Cette image est ensuite mise en forme en format « cubemap » (étape 45). Les coordonnées spatiales de la scène de projection sont prises en compte à l'étape 46. Ces coordonnées comprennent de préférence les données correspondant aux multiples plans distincts de la scène complexe. Ces coordonnées peuvent être obtenues de diverses façons connues, comme par exemple à l'aide de mesures effectuées à l'aide de télémètres laser ou autres. Une transformation, avantageusement sous forme de matrice (étape 47), est ensuite appliquée à l'image préalablement reçue (étape 48). L'image transformée est ainsi adaptée pour projection (étape 49) dans une scène complexe telle qu'une des scènes illustrées aux figures 2, 3 ou 4. Les mêmes phases peuvent aussi être mises en oeuvre pour une succession d'images comme par exemple pour une projection vidéo. [0034]Les figures 6 et 7 illustrent la mise en forme de l'image d'entrée sous forme de « cubemap » 40. L'image est alors en coordonnées x, y, z, tel que montré à la figure 6. Cette même image peut également être mise en forme en cube éclaté 41, dans cet exemple en forme de « T », tel que montré à la figure 7. Les deux figures montrent les multiples faces de l'image, depuis un point d'observation situé à l'intérieur du cube. Les faces sont identifiées en langue anglaise, comme il est d'usage en traitement d'images : « front » (avant), « top » (dessus), « bottom » (dessous), « left » (gauche), « right » (droite), et « back » (arrière). [0035]La figure 8A illustre schématiquement un exemple de scène virtuelle 50, avantageusement mise en oeuvre pour présentation sur un écran de travail. Cette scène virtuelle est une représentation, en coordonnées U-V de la scène tridimensionnelle complexe, telle qu'une scène 30 dans l'exemple de la figure 2. Les multiples plans distincts de la scène réelle sont reproduits dans la scène virtuelle. Par exemple, le plan du fond 52 de la scène est représenté en teinte Cat_hybride-FR - 10 - foncée. Les autres plans (en couleur dans les images d'origine), sont présentés en teinte claire. Le projecteur 51 prévu pour assurer la projection dans la scène réelle est également simulé dans la scène virtuelle. La figure 8A montre aussi les rayons émanant du projecteur 51 et se dirigeant vers les différents plans. La scène virtuelle permet à l'utilisateur d'une part de visualiser et paramétrer le système de projection, afin de bien prendre en compte les données de tous les plans de projection distincts. Une représentation d'un écran virtuel 53 est également visible à la figure 8A. [0036]La figure 8B, en étroite relation avec la figure 8A, illustre la matrice de transformation résultante. On observe les secteurs correspondants aux différents plans de projection : le plan 61 face au projecteur, les plans latéraux 62 et 63, le plan 65 correspondant au plafond, le plan 64 correspondant au sol. Le décrochement mural de la scène réelle a donné lieu au secteur 66, voisin du secteur 65, mais avec un léger décalage par rapport à ce dernier. La figure 8B montre également un emplacement « vide » 67 correspondant à l'emplacement où les pixels seront affichés par un écran en substitution du projecteur. Ainsi, sur la matrice de transformation du projecteur, la zone de l'écran ne comporte pas de données. Ces données sont prévues dans une matrice spécifique à l'écran en question. [0037] La figure 9 présente les étapes détaillées du procédé de projection d'images selon l'invention. Les premières étapes sont en relation avec les acquisitions de données utiles à la mise en oeuvre du procédé. Tout d'abord, en relation avec la ou les images à projeter sur la scène. A l'étape 70, la ou les images d'entrée sont obtenues, par exemple d'un système ou application externe utilisant ou générant des images, de préférence des images 3D. Les images sont ensuite transposées en format « cubemap » (étape 71). Les données en relation avec les coordonnées de la scène de projection sont également obtenues, en particulier les données permettant de définir l'ensemble des plans distincts constitutifs de la scène à l'étape 72. L'étape 72' prévoit l'obtention des données pour affichage à l'écran. Les caractéristiques de projection, telles que le nombre Cat_hybride-FR de projecteurs, leurs coordonnées, leurs orientation et angle de projection sont par ailleurs obtenues à l'étape 73. [0038]Ces données permettent de générer une scène virtuelle (étape 74), telle que celle illustrée dans l'exemple de la figure 8A. Pour faciliter l'ajustement précis de l'image dans la scène virtuelle, une image de travail (« shader » ou « mesh ») est avantageusement utilisée (étape 75). Dans l'exemple illustré à la figure 8A, l'image de paramétrage ou de travail est ajustée à la configuration de la scène virtuelle à l'aide d'une représentation virtuelle d'une pluralité de rayons en provenance du projecteur virtuel. En variante, une grille (« mesh » en anglais) peut également être utilisée. L'utilisateur utilise la représentation de la scène virtuelle pour s'assurer d'une correspondance la plus exacte possible entre l'image de paramétrage et les plans de la scène sur lesquels l'image doit être projetée (étape 76). Cette mise en correspondance peut être effectuée par tout moyen classique tel qu'une souris, des curseurs, un pavé tactile, ou autre. Lorsque la correspondance est optimale, une matrice de transformation d'image est obtenue à l'étape 77. Cette matrice pourra permettre de projeter des images dans la scène réelle tant que les paramètres des plans de projection et des projecteurs restent inchangés. (0039] Le procédé selon l'invention permet donc de générer un mode de correspondance entre chaque pixel du périphérique d'affichage et sa position 3D dans l'espace de projection. La matrice de transformation permet de formaliser le lien entre chaque coordonnée U, V de la texture d'affichage, qui est associé à une coordonnée 3D (x, y, z) de la scène. L'équation ci-dessous permet d'exprimer ce lien entre les systèmes de coordonnées : [0040]La figure 10 est une représentation schématique d'un ensemble modulaire 10 de projection en immersion selon l'invention. Cet ensemble comporte un Cat_hybride-FR - 12 - module 12 de mise en correspondance entre les pixels des images d'entrée et les points de projection répartis sur une pluralité de plans de projection d'une scène tridimensionnelle complexe, conçu pour effectuer une mise en correspondance entre chaque pixel de l'unité de projection et chaque point des plans de projection de la scène de projection et générer une matrice de transformation pour chacun des moyens de projection, basée sur cette mise en correspondance. L'ensemble modulaire 10 de projection comprend également un module 13 de gestion d'images, conçu pour obtenir une pluralité d'images d'entrée destinées à être projetées dans la scène tridimensionnelle complexe et appliquer les matrices de transformation sur les images d'entrée. L'ensemble modulaire 10 comprend enfin des blocs mémoires 15 et 16 pour stocker les données utiles telles que celles de la matrice de transformation (bloc mémoire 15), et les données des images (bloc mémoire 16). [0041]Selon un mode de réalisation avantageux, l'ensemble modulaire 10 de projection comprend également un module 14 de gestion de scène, conçu pour générer une scène virtuelle permettant l'affichage sur un écran de configuration de la scène tridimensionnelle complexe avec les plans de projection, générer un « shader » ou « mesh » pour projection dans la scène virtuelle et mettre à disposition de l'utilisateur un module d'ajustement, conçu pour ajuster la mise en correspondance entre les pixels projetés et les plans de projection de la scène tridimensionnelle complexe. L'ensemble modulaire comprend par ailleurs un module 17 de gestion d'écrans conçu pour transmettre aux écrans les données d'affichage. (0042] L'ensemble 10 de projection est mis en oeuvre au moyen d'un microprocesseur 11 opérant à l'aide d'instructions spécifiquement prévues pour la mise en oeuvre du procédé de projection préalablement décrit. [0043]Les figures 11A et 11B sont des représentations schématiques d'exemple d'unités de projection 20 selon l'invention, assimilables, dans ces exemples, à des projecteurs. Dans l'exemple de réalisation de la figure 11A, le projecteur Cat_hybride-FR - 13 - comprend une source lumineuse 20 agencée en coopération optique avec un modulateur spatial de lumière (en anglais SLM pour « spatial light modulator ») de type connu et une roue de couleurs 23, également de type connu, comme par exemple de type RGB. Une lentille 24 adaptée complète la partie optique du projecteur. Selon un mode de réalisation avantageux, la lentille 24 permet de projeter avec un grand angle, de préférence jusqu'à environ 180 degrés. Ce type de lentille est couramment désigné par l'expression en langue anglaise « fisheye » (pour « oeil de poisson). [0044] La figure 11B illustre un autre exemple de réalisation d'un projecteur, pourvu d'un agencement optique comprenant des cubes séparateurs 25 ou lames séparatrices, une pluralité de modulateurs spatiaux de lumière ou SLM, chacun dédié au traitement d'une couleur spécifique, dans cet exemple rouge, vert et bleu, soit RGB (pour « red », « green », « blue » en anglais). Selon un mode de réalisation avantageux, la lentille 24 permet de projeter avec un grand angle, de préférence jusqu'à environ 180 degrés, tel que préalablement décrit en relation avec la figure 11A. [0045]Un ensemble modulaire 10 de projection en immersion est avantageusement intégré à l'unité de projection, tel qu'illustré dans les exemples des figures 11A et 11B. Cette intégration permet de constituer un produit complet et autonome. En variante, cet ensemble modulaire est avantageusement prévu indépendamment de l'unité de projection 20, comme par exemple intégré à un ordinateur (fixe, portable ou en format tablette) ou une console de jeu. [0046]Le système de projection d'images selon l'invention comprend par ailleurs un ensemble de « tracking » permettant d'obtenir les coordonnées spatiales de position du ou des écrans. L'ensemble de « tracking » comporte au moins un capteur de position de l'objet mobile. [0047] Les Figures et leurs descriptions faites ci-dessus illustrent l'invention plutôt qu'elles ne la limitent. En particulier, l'invention et ses différentes variantes Cat_hybride-FR - 14 - viennent d'être décrites en relation avec un exemple particulier comportant une scène avec sept plans de projections à prendre en compte, et un projecteur. [0048] Néanmoins, il est évident pour un homme du métier que l'invention peut être étendue à d'autres modes de réalisation dans lesquels, en variantes, on prévoit une quasi-infinité de géométries de scènes. De même, il est possible d'utiliser une pluralité de projecteurs, typiquement 2, 3, 4, ou plus. Cat_hybride-FRCat_hybride-EN -8 DETAILED DESCRIPTION OF THE INVENTION [0029] By "complex three-dimensional scene" is meant a scene comprising a plurality of distinct planes, the distinction coming either from the angle between the planes, their relative positions, their orientation , or more of these factors simultaneously. By "distinct planes" is meant substantially plane surfaces, joined or not, arranged in different orientations and / or positions for at least two of the planes. [0031] FIG. 2 illustrates an exemplary implementation of FIGS. the invention in which a projector 20 makes it possible to project an image or a succession of images on a complex three-dimensional scene 30. In this example, the complex three-dimensional scene 30 comprises a projection plane 31 facing the projector 20, a second plane 32 in this example, so that an image can be projected without distortion, it must be adequately treated so that the projection zone 20 corresponding to the lateral plane 32 is projected so as to take into account The scene also shows a screen 33 placed against one of projection planes. [0032] FIGS. 3 and 4 show schematically other exe multiples of 25 complex scene configurations that can be implemented in the context of the present invention. The example of FIG. 3 takes into account four distinct planes comprising a plane facing the projector 31, two opposite lateral planes 32 and 33 and a lower plane 34 corresponding to the ground. The example of Figure 4 is similar to that of Figure 3, with an additional plane 35 for the ceiling. Cat_hybride-EN - 9 - [0033] Figure 5 shows a functional flowchart illustrating briefly the main phases of the method according to the invention. This method is then described in greater detail with FIGS. 6 to 9. The method makes it possible to use a source image coming from an application in which such images are generated or at least made available (step 44). This image is then formatted in "cubemap" format (step 45). The spatial coordinates of the projection scene are taken into account in step 46. These coordinates preferably comprise the data corresponding to the multiple distinct planes of the complex scene. These coordinates can be obtained in various known ways, such as for example using measurements made with laser range finders or the like. A transformation, advantageously in matrix form (step 47), is then applied to the previously received image (step 48). The transformed image is thus adapted for projection (step 49) in a complex scene such as one of the scenes illustrated in FIG. 2, 3 or 4. The same phases can also be implemented for a succession of images such as, for example for a video projection. Figures 6 and 7 illustrate the formatting of the input image in the form of "cubemap" 40. The image is then in x, y, z coordinates, as shown in FIG. same image can also be formatted in exploded cube 41, in this example in the form of "T", as shown in FIG. 7. The two figures show the multiple faces of the image, from a point of observation located inside the cube. The faces are identified in English, as is usual in image processing: "front", "top", "bottom", "left", "right" "(Right), and" back ". FIG. 8A schematically illustrates an example of virtual scene 50, advantageously implemented for presentation on a working screen. This virtual scene is a representation, in U-V coordinates of the complex three-dimensional scene, such as a scene 30 in the example of FIG. 2. The multiple distinct planes of the real scene are reproduced in the virtual scene. For example, the background plane 52 of the scene is represented in hue Cat_hybride-EN - 10 - Dark. The other plans (in color in the original images), are presented in light tint. The projector 51 provided for projection in the real scene is also simulated in the virtual scene. Figure 8A also shows the rays emanating from the projector 51 and moving towards the different planes. The virtual scene allows the user on the one hand to visualize and set up the projection system, in order to take into account the data of all the different projection planes. A representation of a virtual screen 53 is also visible in FIG. 8A. Figure 8B, closely related to Figure 8A, illustrates the resulting transformation matrix. The sectors corresponding to the different projection planes are observed: the plane 61 facing the projector, the lateral planes 62 and 63, the plane 65 corresponding to the ceiling, the plane 64 corresponding to the ground. The wall recess of the real scene gave rise to sector 66, adjacent to sector 65, but with a slight shift compared to the latter. FIG. 8B also shows an "empty" slot 67 corresponding to the location where the pixels will be displayed by a screen replacing the projector. Thus, on the projector's transformation matrix, the area of the screen has no data. These data are provided in a specific matrix on the screen in question. Figure 9 shows the detailed steps of the image projection method according to the invention. The first steps are related to the data acquisition useful for the implementation of the method. First, in relation to the image or images to be projected on the stage. In step 70, the at least one input image is obtained, for example from an external system or application using or generating images, preferably 3D images. The images are then transposed into "cubemap" format (step 71). The data in relation to the coordinates of the projection scene are also obtained, in particular the data making it possible to define the set of distinct planes constituting the scene in step 72. Step 72 'provides for obtaining the data for on-screen display. The projection characteristics, such as the number Cat_hybride-FR of projectors, their coordinates, their orientation and projection angle are also obtained in step 73. These data make it possible to generate a virtual scene (step 74). as illustrated in the example of Figure 8A. To facilitate the precise adjustment of the image in the virtual scene, a working image ("shader" or "mesh") is advantageously used (step 75). In the example illustrated in FIG. 8A, the parameterization or work image is adjusted to the configuration of the virtual scene by means of a virtual representation of a plurality of rays coming from the virtual projector. Alternatively, a grid ("mesh" in English) can also be used. The user uses the representation of the virtual scene to ensure the most exact match possible between the parameterization image and the scenes of the scene on which the image is to be projected (step 76). This mapping can be done by any conventional means such as a mouse, sliders, touchpad, or other. When the correspondence is optimal, an image transformation matrix is obtained in step 77. This matrix can be used to project images in the real scene as long as the parameters of the projection planes and the projectors remain unchanged. The method according to the invention thus makes it possible to generate a mode of correspondence between each pixel of the display device and its 3D position in the projection space.The transformation matrix makes it possible to formalize the link between each coordinate U, V of the display texture, which is associated with a 3D coordinate (x, y, z) of the scene The equation below makes it possible to express this link between the coordinate systems: [0040] FIG. is a diagrammatic representation of a modular immersion projection assembly 10 according to the invention, comprising a Cat_hybrid-module 12 for mapping the pixels of the input images to the projection points distributed on a plurality of projection planes of a complex three-dimensional scene, designed to map each pixel of the projection unit to each point of the projection planes of the projection scene and to generate a projection transformator for each of the projection means, based on this mapping. The modular projection unit 10 also comprises an image management module 13, designed to obtain a plurality of input images intended to be projected in the complex three-dimensional scene and to apply the transformation matrices to the input images. . The modular assembly 10 finally comprises memory blocks 15 and 16 for storing the useful data such as those of the transformation matrix (memory block 15), and the data of the images (memory block 16). According to an advantageous embodiment, the modular projection assembly 10 also comprises a scene management module 14, designed to generate a virtual scene for displaying on a configuration screen of the complex three-dimensional scene with the plans. of projection, generating a "shader" or "mesh" for projection in the virtual scene and providing the user with an adjustment module, designed to adjust the mapping between the projected pixels and the projection planes of the projection. complex three-dimensional scene. The modular assembly further comprises a screen management module 17 designed to transmit the display data to the screens. The projection assembly 10 is implemented by means of a microprocessor 11 operating by means of instructions specifically provided for the implementation of the projection method previously described. [0043] FIGS. 11A and 11B are diagrammatic representations of exemplary projection units 20 according to the invention, comparable in these examples to projectors In the embodiment of FIG 11A, the projector Cat_hybride-EN - 13 - comprises a source light 20 arranged in optical cooperation with a spatial light modulator (in English SLM for "spatial light modulator") of known type and a color wheel 23, also of known type, such as RGB type.A lens 24 adapted complete According to an advantageous embodiment, the lens 24 makes it possible to project with a large angle, preferably up to about 180 degrees, This type of lens is commonly designated by the English expression "fisheye" (for "fish eye"). FIG. 11B illustrates another exemplary embodiment of a projector provided with an optical arrangement comprising separator cubes or separator blades, a plurality of spatial light modulators or SLM, each dedicated to the treatment of a color. specific, in this example red, green and blue, ie RGB (for "red", "green", "blue" in English). According to an advantageous embodiment, the lens 24 makes it possible to project with a large angle, preferably up to about 180 degrees, as previously described in relation to FIG. 11A. A modular immersion projection assembly 10 is advantageously integrated with the projection unit, as illustrated in the examples of FIGS. 11A and 11B. This integration makes it possible to constitute a complete and autonomous product. As a variant, this modular assembly is advantageously provided independently of the projection unit 20, for example integrated into a computer (fixed, portable or tablet format) or a game console. [0046] The image projection system according to the invention also comprises a set of "tracking" to obtain the spatial coordinates of the position or screens. The set of "tracking" comprises at least one position sensor of the moving object. The figures and their descriptions made above illustrate the invention rather than limiting it. In particular, the invention and its various variants Cat_hybride-FR - 14 - have just been described in connection with a particular example comprising a scene with seven projection planes to be taken into account, and a projector. Nevertheless, it is obvious to one skilled in the art that the invention can be extended to other embodiments in which, in variants, there is a quasi-infinity of scene geometries. Similarly, it is possible to use a plurality of projectors, typically 2, 3, 4, or more. Cat_hybride-EN

Claims (14)

REVENDICATIONS1. Procédé de projection d'images sur une scène tridimensionnelle comprenant une pluralité de plans de projection, et au moins une unité de projection, comprenant les étapes consistant à: - obtenir (70) au moins une image d'entrée destinée à être projetée dans la scène tridimensionnelle ; - transposer (71) l'image d'entrée en « cubemap »; - obtenir (72) les coordonnées 3D des plans de projection d'une scène tridimensionnelle prévue pour projection des images d'entrée ; - obtenir les coordonnées d'au moins un écran disposé dans un des plans de projection de la scène tridimensionnelle ; - obtenir (73) les caractéristiques de projection des unités de projection ; - sur la base des coordonnées 3D reçues des plans de projection, des 15 coordonnées des écrans et des caractéristiques de projection, générer (74) une scène virtuelle permettant l'affichage sur un écran de configuration de la scène avec les plans de projection et les écrans ; - générer (75) une image de paramétrage (par exemple un « shader » ou un mesh ») pour projection dans la scène virtuelle ; 20 - pour chaque unité de projection, effectuer (76) une mise en correspondance entre chaque pixel de l'unité de projection et chaque point des plans de projection de la scène virtuelle ; - effectuer une mise en correspondance entre chaque pixel des écrans et chaque point des plans de projection de la scène virtuelle ; 25 - pour chaque unité de projection, générer (77) une matrice de transformation basée sur cette mise en correspondance permettant de prendre en compte les spécificités spatiales et géométriques de chacun des plans de projection ; - transformer (78) la ou les images à projeter sur la scène tridimensionnelle avec la ou les matrices correspondantes ; 30 - projeter la ou les images sur les multiples plans de la scène complexe réelle et afficher la zone correspondante de l'image par l'entremise d'au moins un écran. Cat_hybride-FR- 16 -REVENDICATIONS1. A method of projecting images on a three-dimensional scene comprising a plurality of projection planes, and at least one projection unit, comprising the steps of: - obtaining (70) at least one input image intended to be projected in the three-dimensional scene; - transpose (71) the input image into "cubemap"; obtaining (72) the 3D coordinates of the projection planes of a three-dimensional scene intended for projection of the input images; - Get the coordinates of at least one screen disposed in one of the projection planes of the three-dimensional scene; obtaining (73) the projection characteristics of the projection units; on the basis of the 3D coordinates received from the projection planes, screen coordinates and projection characteristics, generating (74) a virtual scene for displaying on a scene configuration screen with the projection planes and screens; generating (75) a parameter image (for example a "shader" or a mesh) for projection in the virtual scene; For each projection unit, performing (76) a mapping between each pixel of the projection unit and each point of the projection planes of the virtual scene; - perform a mapping between each pixel of the screens and each point of the projection planes of the virtual scene; For each projection unit, generating (77) a transformation matrix based on this mapping making it possible to take into account the spatial and geometrical specificities of each of the projection planes; transforming (78) the image or images to be projected on the three-dimensional scene with the corresponding matrix or matrices; Projecting the one or more images onto the multiple planes of the actual complex scene and displaying the corresponding area of the image through at least one screen. Cat_hybride-EN- 16 - 2. Procédé de projection d'images selon la revendication 1, dans lequel la matrice de transformation est basée sur les coordonnées 3D des plans de projection de la scène de projection.The image projection method according to claim 1, wherein the transformation matrix is based on the 3D coordinates of the projection planes of the projection scene. 3. Procédé de projection d'images selon l'une des revendications 1 ou 2, dans lequel la matrice de transformation est basée sur les caractéristiques de projection de l'unité de projection.3. image projection method according to one of claims 1 or 2, wherein the transformation matrix is based on the projection characteristics of the projection unit. 4. Procédé de projection d'images selon l'une des revendications 1 à 3, dans lequel l'étape de mise en correspondance comporte une phase de prise en compte de la position et de l'orientation de l'utilisateur.4. An image projection method according to one of claims 1 to 3, wherein the matching step comprises a phase of taking into account the position and orientation of the user. 5. Procédé de projection d'images selon l'une des revendications précédentes, dans lequel l'image d'entrée est fournie par une application comprenant des contenus en 3D.5. An image projection method according to one of the preceding claims, wherein the input image is provided by an application comprising 3D contents. 6. Procédé de projection selon l'une des revendications précédentes, dans lequel les caractéristiques de projection comprennent le nombre, le type, les positions et angles de projection de chacune des unités de projection.6. Projection method according to one of the preceding claims, wherein the projection characteristics include the number, type, positions and projection angles of each of the projection units. 7. Procédé de projection selon l'une des revendications précédentes, dans lequel au moins un des écrans est monté mobile dans la scène.7. Projection method according to one of the preceding claims, wherein at least one of the screens is movably mounted in the scene. 8. Procédé de projection selon la revendication 7, dans lequel l'étape de mise en correspondance comporte une phase de prise en compte de la position et de l'orientation des écrans mobiles.8. projection method according to claim 7, wherein the matching step comprises a phase of taking into account the position and orientation of the movable screens. 9. Système de projection d'images sur une scène tridimensionnelle complexe comprenant une pluralité de plans de projection distincts comprenant : - au moins une unité (20) de projection ; -au moins un écran, prévu pour disposition sur un des plans de projection ; Cat_hybride-FR- 17 - - un ensemble modulaire (10) de projection en immersion comprenant : - un module (12) de mise en correspondance entre les pixels des images d'entrée et les points de projection répartis sur une pluralité de plans de projection d'une scène tridimensionnelle complexe, conçu pour effectuer une mise en correspondance entre chaque pixel de l'unité de projection et chaque point des plans de projection de la scène de projection et entre chaque pixel de l'écran et chaque point du plan de projection sur lequel l'écran est disposé, et générer une matrice de transformation pour chacun des moyens de projection ou écran, basée sur cette mise en correspondance ; - un module (13) de gestion d'images, conçu pour obtenir une pluralité d'images d'entrée destinées à être projetées dans la scène tridimensionnelle complexe et appliquer les matrices de transformation sur les images d'entrée ; - un module (17) de gestion d'écrans conçu pour transmettre aux écrans les données d'affichage ; - la ou les unités de projection permettant d'effectuer la projection des images transformées sur les plans de projection de la scène tridimensionnelle complexe.An image projection system on a complex three-dimensional scene comprising a plurality of separate projection planes comprising: - at least one projection unit (20); at least one screen, provided for layout on one of the projection planes; Cat_hybride-EN- 17 - a modular assembly (10) immersion projection comprising: - a module (12) for matching the pixels of the input images and the projection points distributed on a plurality of projection planes a complex three-dimensional scene, designed to match each pixel of the projection unit with each point of the projection planes of the projection scene and between each pixel of the screen and each point of the projection plane on which the screen is disposed, and generating a transformation matrix for each of the projection means or screen, based on this mapping; an image management module (13), designed to obtain a plurality of input images intended to be projected in the complex three-dimensional scene and to apply the transformation matrices to the input images; a screen management module (17) designed to transmit the display data to the screens; the projection unit or units for projecting the transformed images onto the projection planes of the complex three-dimensional scene. 10. Système de projection d'images selon la revendication 9, comprenant par ailleurs un module (14) de gestion de scène, conçu pour générer une scène virtuelle permettant l'affichage sur un écran de configuration de la scène tridimensionnelle complexe avec les plans de projection, générer un « shader » ou « mesh » pour projection dans la scène virtuelle et mettre à disposition de l'utilisateur un module d'ajustement, conçu pour ajuster la mise en correspondance entre les pixels projetés et les plans de projection de la scène tridimensionnelle complexe.An image projection system according to claim 9, further comprising a scene management module (14) adapted to generate a virtual scene for displaying on a configuration screen the complex three-dimensional scene with the scene planes. projection, generating a "shader" or "mesh" for projection in the virtual scene and providing the user with an adjustment module, designed to adjust the mapping between the projected pixels and the projection planes of the scene complex three-dimensional. 11. Système de projection d'images selon l'une des revendications 9 ou 10, dans lequel l'unité de projection (20) comprend au moins un modulateur spatial de lumière (22) et une lentille (24) de projection à sensiblement grand angle.The image projection system according to one of claims 9 or 10, wherein the projection unit (20) comprises at least one spatial light modulator (22) and a substantially large projection lens (24). angle. 12. Système de projection d'images selon la revendication 11, dans lequel la lentille (24) est de type « fisheye ». Cat_hybride-FR- 18 -An image projection system according to claim 11, wherein the lens (24) is of the "fisheye" type. Cat_hybride-EN- 18 - 13. Système de projection d'images selon l'une des revendications 9 ou 10, comprenant par ailleurs un ensemble de « tracking », permettant d'obtenir les coordonnées spatiales de position du ou des écrans.13. Image projection system according to one of claims 9 or 10, further comprising a set of "tracking" to obtain the spatial coordinates of the position or screens. 14. Système de projection d'images selon la revendication 13, dans lequel l'ensemble de « tracking » comporte au moins un capteur de position de l'objet mobile. 10 Cat_hybride-FR14. An image projection system according to claim 13, wherein the "tracking" assembly comprises at least one position sensor of the moving object. 10 Cat_hybride-EN
FR1403001A 2014-12-23 2014-12-23 METHOD FOR PROJECTING IMAGES ON A THREE-DIMENSIONAL HYBRID SCENE Pending FR3030843A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1403001A FR3030843A1 (en) 2014-12-23 2014-12-23 METHOD FOR PROJECTING IMAGES ON A THREE-DIMENSIONAL HYBRID SCENE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1403001A FR3030843A1 (en) 2014-12-23 2014-12-23 METHOD FOR PROJECTING IMAGES ON A THREE-DIMENSIONAL HYBRID SCENE

Publications (1)

Publication Number Publication Date
FR3030843A1 true FR3030843A1 (en) 2016-06-24

Family

ID=52684290

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1403001A Pending FR3030843A1 (en) 2014-12-23 2014-12-23 METHOD FOR PROJECTING IMAGES ON A THREE-DIMENSIONAL HYBRID SCENE

Country Status (1)

Country Link
FR (1) FR3030843A1 (en)

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
ASHDOWN M ET AL: "A flexible projector-camera system for multi-planar displays", PROCEEDINGS OF THE 2004 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION 27 JUNE-2 JULY 2004 WASHINGTON, DC, USA, IEEE, PROCEEDINGS OF THE 2004 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION IEE, vol. 2, 27 June 2004 (2004-06-27), pages 165 - 172, XP010708653, ISBN: 978-0-7695-2158-9, DOI: 10.1109/CVPR.2004.1315159 *
BRETT R JONES ET AL: "IllumiRoom", HUMAN FACTORS IN COMPUTING SYSTEMS, ACM, 2 PENN PLAZA, SUITE 701 NEW YORK NY 10121-0701 USA, 27 April 2013 (2013-04-27), pages 869 - 878, XP058043019, ISBN: 978-1-4503-1899-0, DOI: 10.1145/2470654.2466112 *
CRUZ-NEIRA C ET AL: "Surround-screen projection-based virtual reality: the design and implementation of the CAVE", PROCEEDING OF SIGGRAPH 20TH ANNUAL INTERNATIONAL CONFERENCE ON COMPOTER GRAPHICS AND INTERACTIVE TECHNIQUES; [COMPUTER GRAPHICS : ANNUAL CONFERENCE SERIES], COMPUTER GRAPHICS PROCEEDINGS ACM NEW YORK, NY, USA, no. 20TH, 1 August 1993 (1993-08-01), pages 135 - 142, XP002660833, ISBN: 978-0-89791-601-1 *
JOÃO BEIRA ET AL: "Mixed reality immersive design", PROCEEDINGS OF THE 2013 ACM INTERNATIONAL WORKSHOP ON IMMERSIVE MEDIA EXPERIENCES, IMMERSIVEME '13, 1 January 2013 (2013-01-01), New York, New York, USA, pages 45 - 50, XP055225705, ISBN: 978-1-4503-2402-1, DOI: 10.1145/2512142.2512147 *
KASHYAP PAIDIMARRI ET AL: "Ad-Hoc Multi-planar Projector Displays", 1 January 2007, COMPUTER VISION, GRAPHICS AND IMAGE PROCESSING LECTURE NOTES IN COMPUTER SCIENCE;;LNCS, SPRINGER, BERLIN, DE, PAGE(S) 289 - 298, ISBN: 978-3-540-68301-8, XP019053021 *
NED GREENE: "Environment Mapping and Other Applications of World Projections", IEEE COMPUTER GRAPHICS AND APPLICATIONS, IEEE SERVICE CENTER, NEW YORK, NY, US, vol. 4, no. 11, 1 November 1986 (1986-11-01), pages 21 - 29, XP011155406, ISSN: 0272-1716 *
PATRICK BAUDISCH ET AL: "Focus plus context screens", PROCEEDINGS OF THE 14TH ANNUAL ACM SYMPOSIUM ON USER INTERFACE SOFTWARE AND TECHNOLOGY , UIST '01, 1 January 2001 (2001-01-01), New York, New York, USA, pages 31, XP055103753, ISBN: 978-1-58-113438-4, DOI: 10.1145/502348.502354 *
PAWAN HARISH ET AL: "Designing Perspectively Correct Multiplanar Displays", IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. 19, no. 3, 1 March 2013 (2013-03-01), pages 407 - 419, XP011490540, ISSN: 1077-2626, DOI: 10.1109/TVCG.2012.135 *

Similar Documents

Publication Publication Date Title
EP0661671B1 (en) Picture processing process and device for building a target image from a source image with perspective change
US10275855B2 (en) Image demosaicing for hybrid optical sensor arrays
EP2385405B1 (en) Panomaric projection device and method implemented by said device
US10339631B2 (en) Image demosaicing for hybrid optical sensor arrays
JP5338217B2 (en) Image processing method and projection system
FR2911463A1 (en) Virtual object observation device i.e. telescope, implementing method for use in tourist site, involves determining position at which data is to be inserted, in image along boresight's orientation, and inserting position data in image
EP0605045A1 (en) Image processing method and apparatus for generating one image from adjacent images
US9197877B2 (en) Smart pseudoscopic-to-orthoscopic conversion (SPOC) protocol for three-dimensional (3D) display
FR2984057A1 (en) VIDEO FILM TURNING SYSTEM
FR2983330A1 (en) METHOD AND DEVICE FOR REPRESENTING SYNTHETIC ENVIRONMENTS
EP2837907A1 (en) Method and device for automatic acquisition of three-dimensional surfaces
FR3039028A1 (en) METHOD AND DEVICE FOR DISPLAYING THREE-DIMENSIONAL SCENE ON NON-PLANAR ARBITRARY SHAPE DISPLAY SURFACE
WO2017187095A1 (en) Device and method for sharing an immersion in a virtual environment
FR2989790A1 (en) VISUALIZATION DEVICE SUITABLE FOR PROVIDING AN EXTENDED VISUAL FIELD.
CN113838116A (en) Method and device for determining target view, electronic equipment and storage medium
EP2801075B1 (en) Image processing method for an on-board camera installed on a vehicle and corresponding processing device
EP3210378B1 (en) Method for collecting image data for producing immersive video and method for viewing a space on the basis of the image data
FR3030843A1 (en) METHOD FOR PROJECTING IMAGES ON A THREE-DIMENSIONAL HYBRID SCENE
WO2019180001A1 (en) Panoramic vision system the view of which is displayed on a portrait screen
FR3030842A1 (en) METHOD FOR PROJECTING IMAGES ON A MULTI-PLANE THREE-DIMENSIONAL SCENE
FR3066304A1 (en) METHOD OF COMPOSING AN IMAGE OF AN IMMERSION USER IN A VIRTUAL SCENE, DEVICE, TERMINAL EQUIPMENT, VIRTUAL REALITY SYSTEM AND COMPUTER PROGRAM
EP2987319A1 (en) Method for generating an output video stream from a wide-field video stream
FR3056770A1 (en) DEVICE AND METHOD FOR IMMERSION SHARING IN A VIRTUAL ENVIRONMENT
CA3057337A1 (en) 3d model texturation process
FR2926908A1 (en) Motor vehicle i.e. car, driving assisting method, involves allocating quality score to each of pixels in each of corrected images, and selecting pixel having high quality in order to elaborate top view of environment of motor vehicle

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20160624